摘要:2026年1月16日,OpenAI正式发布开源规范Open Responses,旨在为构建多供应商、互操作的大语言模型(LLM)接口提供统一的行业标准。该规范基于其原有的Responses API设计,但目标直指“供应商中立”,旨在解决当前AI生态中因接口碎片化导致的开发效率低下和供应商锁定问题。目前,OpenRouter、Vercel、Hugging Face、LM Studio、Ollama、vLLM等众多知名平台已宣布支持,标志着LLM API从“模仿兼容”迈向“开放标准”的关键一步。
在Open Responses出现之前,AI应用开发者长期面临一个核心困境:尽管主流模型服务商(如国内的硅基流动、DeepSeek、智谱等)的API在形式上大多“兼容”OpenAI风格,但细节上千差万别。消息格式、工具调用(Function Calling)、流式输出(SSE)事件定义、以及高级的Agent功能和多模态支持,都存在大量不兼容的“边界case”。这导致开发者切换模型供应商的成本极高,几乎等同于重写适配代码,严重阻碍了A/B测试、成本优化和最佳模型策略的实施。
更深层的担忧在于供应商锁定和数据主权。企业一旦将核心业务构建在单一供应商的封闭API(如OpenAI的Assistants API)上,就面临接口变更、定价调整、乃至合规数据无法本地化存储的风险。Open Responses的推出,正是为了打破这种“围墙花园”,将优秀的API设计开源化、标准化,把数据控制权交还给开发者。
Open Responses并非另一个“OpenAI兼容API”。它是一次从理念到架构的全面升级。
response.reasoning.delta
response.text.delta
Open Responses在技术设计上深刻反映了对真实世界工作流的支持。
相关资源:
文章来源:本文综合编译自OpenAI官方公告及行业分析,主要参考信息来源于2026年1月16日发布的关于Open Responses开源规范的多篇报道。