英伟达CES 2026震撼发布:六大自研芯片构建最强AI超算,自动驾驶进入“思考”时代

Ai资讯3天前发布 大国Ai
58 0 0

摘要: 在CES 2026主题演讲中,英伟达创始人黄仁勋正式发布全新AI超级计算平台NVIDIA Vera Rubin POD,其核心为六款自研芯片(Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-X CPO),单机架算力高达3.6EFLOPS,推理性能较前代提升5倍。同时,英伟达推出三大关键产品优化推理效率,并开源自动驾驶模型Alpamayo,推动物理AI进入新阶段。Rubin平台预计2026年下半年通过微软等合作伙伴投入商用,进一步巩固英伟达在AI基础设施领域的领导地位。


一、六大芯片协同设计:Vera Rubin平台重新定义AI算力边界

当地时间1月5日,英伟达在拉斯维加斯CES 2026现场揭晓了其下一代AI计算平台的核心架构。黄仁勋在长达1.5小时的演讲中强调,计算产业正同时经历从CPU到GPU、从“编程软件”到“训练软件”的双重变革,而算力需求正以每年模型规模增长10倍、token消耗量增长5倍的速度爆发。为此,英伟达宣布将每年更新硬件架构,并正式开启Vera Rubin平台的大规模生产。

英伟达CES 2026震撼发布:六大自研芯片构建最强AI超算,自动驾驶进入“思考”时代

Vera Rubin POD整合了六款专为AI协同工作负载设计的自研芯片:

  1. Vera CPU:采用定制Olympus核心架构,拥有88核、176线程,支持CPU与GPU统一内存,系统内存容量达1.5TB(为Grace CPU的3倍),并首次实现机架级机密计算,为数据密集型智能体处理提供基础。
  2. Rubin GPU:引入Transformer引擎,NVFP4推理性能达50PFLOPS(Blackwell GPU的5倍),训练性能达35PFLOPS(Blackwell的3.5倍),并率先支持HBM4内存,带宽提升至22TB/s。
  3. NVLink 6 Switch:单通道速率提升至400Gbps,每GPU互连带宽达3.6TB/s,支持全液冷设计,实现零停机维护。
  4. ConnectX-9 SuperNIC:为大规模AI集群优化,提供1.6Tb/s带宽,具备完全可编程的数据路径。
  5. BlueField-4 DPU:集成64核Grace CPU,计算性能提升6倍,专用于卸载网络与存储任务。
  6. Spectrum-X CPO:共封装光学器件,将交换机能效提升5倍,可靠性提升10倍。

在系统层面,NVIDIA Vera Rubin NVL72将上述组件整合为单一机架系统,包含2万亿晶体管,支持3.6EFLOPS推理算力与2.5EFLOPS训练算力。其模块化、无缆化设计使组装效率提升18倍,并全面转向100%液冷散热。该系统已通过验证,并获得超80家MGX合作伙伴的部署支持。

二、三大新品破解推理瓶颈:存储、网络与系统级协同创新

随着AI应用从训练转向大规模推理,上下文存储与通信效率成为关键瓶颈。英伟达针对性推出三款产品:

  1. Spectrum-X以太网共封装光学器件:基于200Gbps SerDes技术,提供102.4Tb/s带宽,在提升能效与可靠性的同时,显著降低数据中心总拥有成本(TCO)。
  2. 推理上下文内存存储平台:专为存储KV Cache设计,通过BlueField-4与Spectrum-X协同,将上下文作为“一等数据类型”处理,避免重复计算,使长上下文应用的推理性能提升5倍。
  3. 基于DGX Vera Rubin NVL72的DGX SuperPOD:作为交钥匙AI工厂解决方案,采用8套NVL72系统构建,结合纵向扩展(NVLink 6)与横向扩展(Spectrum-X)网络,使大型MoE模型的token成本降至Blackwell平台的1/10。

黄仁勋指出,这些创新不仅降低推理成本,更推动AI从“聊天交互”向“多步推理智能体”演进。

三、开源生态持续扩张:自动驾驶模型Alpamayo实现“可解释推理”

在软件与模型层面,英伟达宣布其已成为Hugging Face平台最大的开源贡献者,2025年共发布650个开源模型与250个数据集。此次重点开源的Alpamayo模型,是首个让自动驾驶汽车具备“思考能力”的物理AI系统。

Alpamayo基于100亿参数设计,能够接收多模态输入(文本、环视摄像头、车辆状态),通过任务分解与可能性推理输出行驶轨迹与决策依据,实现可解释的自动驾驶。该模型已应用于梅赛德斯-奔驰CLA车型,并获NCAP最高安全评级。英伟达同时开源了配套数据集与仿真评估工具Alpasim,推动行业共同开发L4级自动驾驶系统。

此外,英伟达与西门子达成合作,将CUDA-X、AI模型与Omniverse集成至工业软件全流程,加速物理AI在制造、机器人等领域的落地。

四、行业影响:AI基础设施进入“系统级竞争”时代

业界分析指出,英伟达此次发布标志着AI竞争从单一算力芯片转向涵盖芯片、互连、存储、软件的全栈系统优化。Rubin平台在提升性能的同时,兼顾与Blackwell平台的向后兼容,降低用户迁移成本。通过开源关键模型与强化硬件生态,英伟达正构建从训练、推理到物理AI的完整闭环,进一步巩固其在AI基础设施市场的护城河。

随着Rubin平台于2026年下半年通过云服务商与系统集成商交付,全球AI算力格局或将迎来新一轮升级。


文章来源:本文基于智东西发布的《刚刚,黄仁勋一口气解密6颗芯片,召唤出最强AI超算!》(2026年1月6日)进行综合整理与信息补充,部分技术细节参考英伟达官方CES 2026演讲材料及行业公开技术分析。

© 版权声明

相关文章

暂无评论

none
暂无评论...