当全球AI巨头们还在为训练算力疯狂堆砌GPU时,OpenAI已悄然调转船头,与芯片新贵Cerebras签下超百亿美元订单,直指AI应用最关键的瓶颈——推理速度。
2026年1月14日,OpenAI与AI芯片初创公司Cerebras Systems联合宣布,双方已签署一项为期多年的战略合作协议。根据协议,Cerebras将在2028年前分阶段为OpenAI提供高达750兆瓦的算力支持。
这笔交易规模据知情人士透露超过100亿美元,建成后将成为全球规模最大的高速AI推理平台。
OpenAI正在执行一项清晰的战略:在确保训练算力领先的同时,将资源重点投向推理速度的突破。与Cerebras的合作正是这一战略的关键落子。
OpenAI计算基础设施负责人萨钦·卡蒂表示:”将Cerebras整合至我们的计算解决方案组合,旨在大幅提升AI响应速度。”
这意味着未来ChatGPT等产品的交互延迟将大幅降低,用户体验将更接近实时对话。OpenAI联合创始人格雷格·布罗克曼更直言,这种突破性的响应速度将解锁”下一代AI应用场景”。
Cerebras的技术路径与行业主流截然不同。如果说英伟达的GPU集群是”乐高积木”,通过堆叠构建算力大厦,那么Cerebras就是”一整块巨型岩石”。
该公司采用晶圆级半导体技术,直接将整块12英寸硅晶圆制成单颗芯片。其第三代产品WSE-3芯片面积达46,255平方毫米,集成了4万亿晶体管和90万个AI核心。
这种设计的核心优势在于彻底消除了跨芯片通信带来的延迟和带宽瓶颈。所有计算核心和内存单元都集成在同一芯片内,数据无需在多个芯片间”长途跋涉”。
在实际应用中,Cerebras芯片展现出了碾压性的性能优势。OpenAI透露,基于Cerebras芯片运行的大语言模型,在代码及语音聊天任务上的响应速度,比基于GPU的系统快高达15倍。
这一性能突破对AI应用的商业化至关重要。对OpenAI这样的公司来说,运行AI模型并快速生成回答的成本与速度,直接关系到用户体验与企业盈利前景。
Cerebras首席执行官安德鲁·费尔德曼强调,AI推理阶段——即模型响应查询的过程——对于技术进步具有关键意义,而这也正是其产品的核心竞争力所在。
此次合作是OpenAI多元化芯片供应策略的重要组成部分。该公司一直在寻找比英伟达芯片更便宜、更高效的替代方案。
除了与Cerebras的合作,OpenAI此前已宣布正与博通合作开发定制芯片,并单独签署协议使用AMD的新型MI450芯片。去年9月,英伟达宣布将对OpenAI进行高达1000亿美元的战略投资,专项用于建设AI基础设施。
这种多元化的算力布局,既是为了降低对单一供应商的依赖,也是为了将合适的系统与合适的工作负载相匹配。
Cerebras凭借此次合作,成功跻身AI芯片行业头部阵营。该公司在2025年9月完成的G轮融资中估值达81亿美元,而据最新消息,其正在洽谈以约220亿美元的估值进行新一轮融资。
这一估值跃升直接反映了市场对高速推理技术的认可。专注于推理优化的芯片公司正获得大量关注与资源倾斜。
值得注意的是,在2025年12月,另一家AI推理芯片初创公司Groq已被英伟达以200亿美元现金收购。英伟达计划将Groq的低延迟处理器整合到其AI工厂架构中,以支持更广泛的AI推理工作负载。
合作宣布后,OpenAI首席执行官山姆·奥特曼在社交媒体上透露:”Very fast Codex coming!”[^用户消息]。这暗示着基于Cerebras芯片的高速版编程AI智能体即将推出。
Codex是OpenAI专为专业开发者设计的编程AI智能体,集成在ChatGPT中,具备端到端任务处理、复杂代码生成与修改等核心功能。2025年12月,OpenAI推出了基于GPT-5.2的新一代Codex模型GPT-5.2-Codex,号称最先进的智能体编码模型。
随着推理速度的大幅提升,Codex等AI工具的生产力将得到进一步释放,可能彻底改变软件开发的工作流程。
此次合作基于双方长期的技术积累。OpenAI和Cerebras几乎同时创立,自2017年以来,双方团队频繁会面,分享研究成果。奥特曼本人也是Cerebras的个人投资者。
对于Cerebras而言,这笔订单意义重大。2024年上半年,其87%的营收来自阿联酋人工智能企业G42。与OpenAI的合作将显著推动客户结构多元化,降低对单一客户的依赖风险。
随着750兆瓦Cerebras算力在2028年前逐步部署完成,AI模型的实时交互能力将迈上新台阶,人机协作的边界将被重新定义。
来源:根据OpenAI与Cerebras官方公告、华尔街日报、CNBC、东方财富网、36氪等媒体报道综合整理。