深入研究主流LLM供应商的HTTP API
原文: research-llm-apis 2026-04-04
Simon Willison 工具链 进阶 影响力: 5/10
Simon Willison 用AI辅助分析了四大LLM厂商的API原始实现,为新版本LLM库的抽象层设计铺路。
核心要点
- LLM Python库正在大改版,以支持服务端工具执行等新功能
- 用Claude Code读取了四大厂商Python客户端并生成curl命令
- 所有测试脚本和原始输出已开源,是研究各厂商API差异的宝贵资料
深度解读
扒开API的外衣——四大LLM厂商HTTP接口全景对比
Simon Willison正在对他的LLM Python库进行重大架构升级。这次升级的起因很实际:过去一年里,各大LLM供应商纷纷推出了新功能(比如服务端工具执行),而现有的抽象层已经覆盖不了这些场景。
研究方法很特别
Willison不是去读各家的API文档——而是用Claude Code直接读取了Anthropic、OpenAI、Gemini和Mistral四家的Python客户端库源代码,然后让AI帮他生成curl命令来访问原始JSON接口。
这个方法巧妙之处在于:文档可能过时,但代码永远不会骗人。
产出物
所有脚本和捕获的输出都放进了一个新仓库 research-llm-apis,涵盖:
- 流式和非流式模式下的完整请求/响应
- 多种场景下的API行为对比
- 各厂商在工具调用、结构化输出等功能上的实现差异
对开发者意味着什么
如果你正在做多模型切换(即通过同一个接口调用不同厂商的模型),这份资料极具参考价值。你会发现:
- 各厂商的流式协议细节差异很大
- 工具调用的参数格式和响应结构各不相同
- 错误处理和重试机制也不统一
这也解释了为什么像llm、LangChain这样的抽象层维护起来越来越困难——每个厂商都在自己的API上加新花样,抽象层必须不断追赶。
Willison的这项研究为下一代LLM抽象层设计提供了基于代码事实的决策依据,而不是基于文档猜测。