GPT-5.5 的“后门”:如何用订阅费白嫖最新模型API
原文: A pelican for GPT-5.5 via the semi-official Codex backdoor API
OpenAI最新模型GPT-5.5虽未正式开放API,但开发者已通过其Codex CLI的“半官方后门”,用ChatGPT订阅费直接调用,揭示了AI模型分发渠道的博弈新动态。
核心要点
- GPT-5.5已发布但API暂未开放,仅限ChatGPT订阅用户和Codex使用
- 开发者社区发现可通过Codex CLI的特定端点,用现有订阅直接调用模型
- OpenAI对此持默许甚至鼓励态度,与Anthropic封杀类似工具形成鲜明对比
- Simon Willison据此开发了LLM插件,让任何开发者都能通过订阅“白嫖”API
深度解读
起因:新模型发布,但API缺席 GPT-5.5的发布本身是重大新闻,但更值得玩味的是其发布策略:模型已可通过ChatGPT订阅和Codex使用,但面向开发者的正式API却“需要更多安全保障”而暂缓开放。这制造了一个时间差和体验差——普通用户能用,但开发者想在自己的应用或工作流中集成,暂时无门。这正是故事开始的背景:当官方渠道关闭时,社区会自己找路。
拆解:那个“半官方后门”是什么?
文章的核心不是GPT-5.5有多强,而是一个技术“后门”的故事。这个后门是OpenAI为其自家工具Codex CLI提供的一个内部API端点(/backend-api/codex/responses)。由于Codex CLI是开源的,且OpenAI允许用户用ChatGPT订阅来认证和使用,这就相当于开了一条小路:你可以通过模仿Codex CLI的行为,用你已有的、相对廉价的月度订阅,来调用本应昂贵得多的模型API。关键转折点在于OpenAI高管的公开表态,他们明确欢迎第三方工具(如Pi、OpenCode)利用此机制,这赋予了它“半官方”的合法性。Simon Willison的实践——让Claude Code逆向工程Codex仓库并开发出llm-openai-via-codex插件——是这条小路从理论到实用的完美演示。
趋势洞察:分发渠道的博弈与“订阅即API” 这件事揭示了几个深层趋势:第一,模型提供商与开发者在分发渠道上的博弈正在加剧。Anthropic选择封杀OpenClaw以保护其API收入,而OpenAI选择拥抱甚至鼓励,意在扩大生态影响力和用户粘性,两种策略孰优孰劣有待观察。第二,它模糊了消费级订阅与开发者API之间的界限。传统上,这是两个市场、两种定价。但“订阅即API”的模式(即使是非官方的)暗示,未来模型访问权可能更统一,用户为一个账户付费,即可在不同场景(聊天、编码、应用集成)中使用。第三,开源工具链(如LLM)在降低AI使用门槛上的作用愈发关键。它们能快速整合这些非传统接入点,让前沿能力迅速普及。
实用价值:对开发者意味着什么? 对于中文IT从业者,这个故事有直接的参考价值。首先,它提供了一种低成本体验和测试最新模型的思路。如果你已有ChatGPT Plus订阅,现在就可以通过Simon的插件在自己的脚本或工作流中调用GPT-5.5,用于原型验证或个人项目,无需等待API开放和支付高昂的API费用。其次,它提醒我们关注官方工具链的开源代码,里面可能藏着未被充分宣传的集成机会。最后,在设计自己的产品或服务时,可以思考如何利用或应对这种“官方-非官方”渠道并存的生态,例如,你的应用是否也能通过类似方式为用户提供更平滑的升级体验?
反常识/意外 一个可能被忽略的角度是:OpenAI此举可能是一种精明的市场策略。通过默许这种“后门”访问,他们实际上在用较低的边际成本(订阅用户已付费)培养开发者生态和用户习惯。当这些用户和应用深度依赖GPT-5.5后,未来正式API开放时,转化和升级将水到渠成。这比单纯的发布-等待-收费模式更具侵略性。同时,这也给竞争对手(如Anthropic)出了难题:是继续严防死守,还是跟进这种更开放的策略?
原文地址: A pelican for GPT-5.5 via the semi-official Codex backdoor API