摘要: 在CES 2026主题演讲中,英伟达创始人黄仁勋正式发布全新AI超级计算平台NVIDIA Vera Rubin POD,其核心为六款自研芯片(Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-X CPO),单机架算力高达3.6EFLOPS,推理性能较前代提升5倍。同时,英伟达推出三大关键产品优化推理效率,并开源自动驾驶模型Alpamayo,推动物理AI进入新阶段。Rubin平台预计2026年下半年通过微软等合作伙伴投入商用,进一步巩固英伟达在AI基础设施领域的领导地位。
当地时间1月5日,英伟达在拉斯维加斯CES 2026现场揭晓了其下一代AI计算平台的核心架构。黄仁勋在长达1.5小时的演讲中强调,计算产业正同时经历从CPU到GPU、从“编程软件”到“训练软件”的双重变革,而算力需求正以每年模型规模增长10倍、token消耗量增长5倍的速度爆发。为此,英伟达宣布将每年更新硬件架构,并正式开启Vera Rubin平台的大规模生产。
Vera Rubin POD整合了六款专为AI协同工作负载设计的自研芯片:
在系统层面,NVIDIA Vera Rubin NVL72将上述组件整合为单一机架系统,包含2万亿晶体管,支持3.6EFLOPS推理算力与2.5EFLOPS训练算力。其模块化、无缆化设计使组装效率提升18倍,并全面转向100%液冷散热。该系统已通过验证,并获得超80家MGX合作伙伴的部署支持。
随着AI应用从训练转向大规模推理,上下文存储与通信效率成为关键瓶颈。英伟达针对性推出三款产品:
黄仁勋指出,这些创新不仅降低推理成本,更推动AI从“聊天交互”向“多步推理智能体”演进。
在软件与模型层面,英伟达宣布其已成为Hugging Face平台最大的开源贡献者,2025年共发布650个开源模型与250个数据集。此次重点开源的Alpamayo模型,是首个让自动驾驶汽车具备“思考能力”的物理AI系统。
Alpamayo基于100亿参数设计,能够接收多模态输入(文本、环视摄像头、车辆状态),通过任务分解与可能性推理输出行驶轨迹与决策依据,实现可解释的自动驾驶。该模型已应用于梅赛德斯-奔驰CLA车型,并获NCAP最高安全评级。英伟达同时开源了配套数据集与仿真评估工具Alpasim,推动行业共同开发L4级自动驾驶系统。
此外,英伟达与西门子达成合作,将CUDA-X、AI模型与Omniverse集成至工业软件全流程,加速物理AI在制造、机器人等领域的落地。
业界分析指出,英伟达此次发布标志着AI竞争从单一算力芯片转向涵盖芯片、互连、存储、软件的全栈系统优化。Rubin平台在提升性能的同时,兼顾与Blackwell平台的向后兼容,降低用户迁移成本。通过开源关键模型与强化硬件生态,英伟达正构建从训练、推理到物理AI的完整闭环,进一步巩固其在AI基础设施市场的护城河。
随着Rubin平台于2026年下半年通过云服务商与系统集成商交付,全球AI算力格局或将迎来新一轮升级。
文章来源:本文基于智东西发布的《刚刚,黄仁勋一口气解密6颗芯片,召唤出最强AI超算!》(2026年1月6日)进行综合整理与信息补充,部分技术细节参考英伟达官方CES 2026演讲材料及行业公开技术分析。