
摘要
NVIDIA Ising 是 NVIDIA 面向量子计算推出的开放 AI 模型家族,包含训练框架、基准与部署食谱,聚焦“校准”与“解码”两大关键任务,目标是帮助量子处理器走向实用化、规模化。该家族首批发布两大模型域:Ising Calibration(基于视觉-语言模型的自动校准)与 Ising Decoding(基于三维卷积神经网络的量子纠错解码)。官方测试与生态实践表明,Ising 在校准基准 QCalEval 上显著优于通用闭源/开源大模型,在解码端相比传统 PyMatching 解码器可实现最高约 2.5 倍的速度提升与最高约 3 倍的逻辑错误率改善,并通过与 CUDA‑Q、NVQLink、cuQuantum 等栈的深度集成,将延迟压至微秒级,支撑“Quantum‑GPU 超算”的实时反馈回路。
NVIDIA Ising官网入口:https://www.nvidia.com/en-us/solutions/quantum-computing/ising/
一、产品定位与背景
1.1 NVIDIA Ising 的定义
- NVIDIA Ising:一个面向量子计算的开放模型家族,提供模型权重、训练框架、基准与部署食谱,用于构建和部署 AI,以解决量子处理器校准与量子纠错解码两大核心工程瓶颈。
- 目标用户:量子处理器构建者、运营商、解码算法开发者、系统集成商。
- 核心价值:在不要求用户成为机器学习专家的前提下,把最先进的 AI 能力引入量子控制与纠错栈,从而降低“量子–经典”混合系统的工程复杂度。
1.2 命名由来与时间线
- Ising 模型:统计物理中用于描述自旋系统的经典数学模型,用于简化复杂多体系统的相变与临界行为。NVIDIA 以此命名,寓意用“简化复杂系统”的方法来解决量子噪声与纠错难题。
- 发布时间:NVIDIA 于 2026 年 4 月 14 日正式发布 Ising,并同步开放模型、代码与基准。
1.3 在 NVIDIA 量子生态中的位置
- CUDA‑Q:NVIDIA 的混合量子–经典计算统一软件平台,提供跨 QPU/GPU 的编程、编译与运行时环境。
- CUDA‑Q QEC:CUDA‑Q 中的量子纠错子库,提供标准解码器接口与实时 API,便于集成自定义解码策略。
- NVQLink:开放的 QPU–GPU 硬件互连与实时通信平台,配合 cudaq‑realtime 提供 GPU 与量子控制器之间的微秒级回调通路,用于校准与纠错。
- cuQuantum:GPU 加速的量子计算仿真库集合,包含 cuStateVec、cuTensorNet、cuDensityMat、cuStabilizer 等子库,为 Ising Decoding 的合成数据生成与仿真验证提供底层算子支持。
- NVIDIA NIM:将模型封装为高性能推理微服务的容器化平台,Ising Calibration 1 通过 NIM 提供易用的推理服务。
- NeMo Agent Toolkit:面向“智能体(Agent)”的编排与工具调用框架,用于把 Ising Calibration 封装为自动化校准 Agent。
二、核心架构与模型域
2.1 模型家族总体构成
- 模型域:Ising Calibration(校准域)与 Ising Decoding(解码域)。
- 训练框架:支持基于自定义噪声模型与合成数据训练/微调解码模型,并集成 cuQuantum cuStabilizer 与 PyTorch。
- 部署食谱:面向 TensorRT、PyTorch 等推理引擎的端到端示例脚本、量化与调优指南。
- 基准与数据:QCalEval 基准与开放数据集,用于评估与迭代校准模型。
2.2 Ising Calibration:自动校准 VLM
- Ising Calibration 1:面向量子处理器校准的视觉–语言模型(VLM),用于“读取”并理解校准实验图表与数据,自动生成下一步校准动作或参数建议。
- 模型规模:约 35B 参数,基于 Qwen3.5‑35B‑A3B 架构构建,适配数据中心 GPU(如 Grace Blackwell、Vera Rubin)以及桌面工作站(如 DGX Spark)。
- 训练数据:来自多家量子合作伙伴的多种物理比特体系(超导比特、量子点、离子阱、中性原子、电子在氦面上等)的真实实验输出。
- QCalEval:首个面向量子校准图表理解的 VLM 基准,包含 243 个样本、87 种场景类型、22 类实验家族,覆盖超导与中性原子等平台,评估 6 类问题在零样本与上下文学习下的表现。
2.3 Ising Decoding:3D CNN 实时解码器
- 三维卷积神经网络(3D CNN):适用于在“空间(码距)×时间(纠错轮次)”的三维错误图样上进行快速前向推理,兼顾感受野与实时性。
- 基座模型二选一:
- Ising‑Decoder‑SurfaceCode‑1‑Fast:轻量高吞吐版本,约 0.91M 参数,感受野为 9,在 d=13、物理错误率 p=0.003 条件下,相比纯 PyMatching 可实现约 2.5 倍速度提升、1.1 倍准确率提升。
- Ising‑Decoder‑SurfaceCode‑1‑Accurate:高精度版本,约 1.79M 参数,感受野为 13,在同样条件下可实现约 2.25 倍速度提升、1.53 倍准确率提升;在某些码距(如 d=31、p=0.003)下可带来约 3 倍的逻辑错误率(LER)改善。
- 模型定位:作为“预解码器(pre‑decoder)”,在进入全局解码器(如 Union Find、最小权重完美匹配/PyMatching、ML 解码器)之前,快速局部纠正大量短链错误,从而整体提升 LER 与延迟。
三、关键技术机制
3.1 校准:VLM + Agent 闭环
- 视觉理解:VLM 直接“看”校准曲线、散点图、直方图等实验图表,将其抽象为语义化结论与趋势判断。
- 动作生成:基于实验结果与目标指标,自动输出下一步控制参数建议(如频率偏移、脉冲幅度、门时间等)。
- 智能体编排:借助 NeMo Agent Toolkit,将 VLM 封装为自动校准 Agent,与控制软件栈或编码型代理(如 Cursor、Claude Code 等)集成,实现“测量→分析→调参→再测量”的闭环,大幅缩短从天到小时级别的校准周期。
3.2 解码:3D CNN + cuStabilizer + cuQuantum
- cuStabilizer:cuQuantum 中面向“稳定子形式”仿真的高性能库,用于高效模拟量子纠错码(如表面码)在给定噪声模型下的校验子历史,为解码器生成大规模合成训练数据。
- PyTorch 训练闭环:用 cuStabilizer 在线生成“三维校验子体积”,喂入 PyTorch 训练 3D CNN,使解码器深度适配目标 QPU 的噪声特性与拓扑结构。
- 实时推理:解码器可部署为 TensorRT 引擎,通过 CUDA‑Q QEC 与 cudaq‑realtime 暴露实时 API,实现与量子控制器的低延迟回调。
3.3 延迟与 LER 优化
- 实时 API:基于 CUDA‑Q QEC、cudaq‑realtime 与 NVQLink 构建,实现 FPGA/量子控制器与 GPU 之间的微秒级双向通信,把解码延迟压到可支撑纠错时钟的量级。
- 延迟示例:在 Accurate 模型 + PyMatching 的配置下,使用 DGX GB300、FP16 精度、p=0.003、104 轮、d=13 的表面码,可实现约 2.33 μs/轮的速度,相对纯 PyMatching 实现 2.25 倍加速与 1.53 倍 LER 改善。
- 延迟预测:在 13 块 GB300 GPU、FP8 精度、p=0.003、1000 轮、d=13 条件下,Fast 模型预计可达到约 0.11 μs/轮。
- 逻辑错误率改善:在合适码距与噪声条件下,Accurate 模型可带来最高约 3 倍 LER 改善,帮助系统更接近容错阈值与实用化。
四、应用场景与适用人群
4.1 典型场景
- 量子处理器“起机”与例行校准:使用 Ising Calibration 自动读取多种比特平台的校准曲线,实现从单比特门、双比特门到读取链路的自动化调优。
- 容错量子纠错的实时解码:在表面码/旋转表面码等纠错方案中,把 Ising Decoding 作为预解码器,提升逻辑错误率与实时性,支撑大规模 QPU 阵列。
- 多平台适配与实验优化:针对超导、离子阱、中性原子等不同物理体系,用同一套训练框架训练/微调专属解码模型,适配各自的空间拓扑与噪声关联。
4.2 目标用户画像
- 量子硬件厂商:将 Ising Decoding 作为标准预解码层,嵌入自研纠错栈,并通过 Ising Calibration 实现“自研控制 + AI 调优”的闭环。
- 国家实验室与超算中心:在 Quantum‑GPU 超算环境中,用 Ising 构建实时纠错与校准服务,降低运维成本并提高可用比特数。
- 量子算法与应用团队:在校准稳定的前提下,更专注于高阶量子算法验证与应用层开发。
- 量子控制软件供应商:通过 cudaq‑realtime/NVQLink 接入 Ising 能力,为客户提供“AI+控制”的一体化方案。
五、与主流栈与竞品的对比(简要)
5.1 与传统解码方案对比
- PyMatching:经典最小权重完美匹配(MWPM)解码器,社区广泛采用;Ising Decoding 在其基础上作为预解码层,显著提升速度与 LER。
- Union Find 等启发式解码器:Ising 支持与之组合,作为局部纠错前端,缩短全局解码的计算压力。
- 其他 ML 解码器:Ising 提供统一的训练框架与可复现基准,便于在同一条件下对比不同解码策略。
5.2 与通用大模型对比(校准域)
- 通用 VLM(如 Claude、Gemini、GPT):虽然具备多模态理解能力,但在量子校准图表的专业语义理解上,QCalEval 测试表明 Ising‑Calibration‑1 明显优于通用前沿模型。
- Ising Calibration 优势:基于真实 QPU 数据与校准任务进行专门训练与评测,更贴近工程现场的决策需求。
六、开放资源与快速上手
6.1 模型权重与许可
- 开放权重:Ising Calibration 1 与 Ising Decoder SurfaceCode 1 在 Hugging Face 提供全参数检查点。
- 访问方式:Ising Calibration 1 同时通过 NVIDIA NIM 与 build.nvidia.com 提供微服务化推理;解码模型以开源仓库形式提供训练与推理脚本。
- 许可:采用 NVIDIA Open Model License,支持本地部署与二次开发,方便 QPU 厂商在自有基础设施上运行并保护专有数据。
6.2 训练与部署路径
- 训练路径:定义噪声模型与表面码参数 → 使用 cuStabilizer 在线生成三维校验子数据 → 基于 PyTorch 训练 3D CNN → 导出为 TensorRT 或直接在 PyTorch 中推理。
- 部署路径:选择 Fast/Accurate 基座 → 按需量化(如 FP8)→ 集成到 CUDA‑Q QEC 的实时解码 API → 通过 NVQLink 与 QPU 控制器连接。
- 校准 Agent 路径:基于 GitHub 提供的 Blueprint 与 NeMo Agent Toolkit,将 Ising Calibration 1 接入现有控制软件栈或编码代理,实现闭环校准。
6.3 基准与数据
- QCalEval:用于评估任何 VLM 在量子校准图表理解任务上的表现,包含脚本与数据集,可直接复现官方结果。
- Ising Calibration 数据:基于合作方真实实验数据构建,部分开放在 Hugging Face,用于监督微调与领域适配。
七、局限性与注意事项
- 依赖 GPU 与特定软件栈:高性能训练与部署需要 CUDA‑Q、cuQuantum、TensorRT 等 NVIDIA 栈支持;跨平台迁移需考虑兼容性。
- 噪声模型匹配:解码器效果高度依赖训练所用噪声模型与真实 QPU 噪声的匹配度,需定期用实测数据微调。
- 基准局限:QCalEval 聚焦图表类任务,对其他类型校准数据(如时序 trace、原始 IQ 数据)的支持需进一步扩展。
- 生态成熟度:作为 2026 年发布的新家族,部分功能与最佳实践仍在快速迭代中,建议关注官方仓库与文档更新。
文章来源
- NVIDIA 官方新闻稿:NVIDIA Launches Ising, the World’s First Open AI Models to Accelerate the Path to Useful Quantum Computers(2026‑04‑14)。
- NVIDIA 开发者博客:NVIDIA Ising Introduces AI‑Powered Workflows to Build Fault‑Tolerant Quantum Systems。
- NVIDIA 研究论文:QCalEval: Benchmarking Vision‑Language Models for Quantum Calibration Plot Understanding(2026‑04‑14)。
- NVIDIA cuQuantum 官方文档(cuStabilizer、cuQuantum SDK 概览)。
- CUDA‑Q/cudaq‑realtime 官方博客:Introducing cudaq‑realtime for programming the Logical QPU(2026‑03‑16)。
- NVIDIA 解决方案页面:NVQLink;NVIDIA Ising 解决方案页;Ising 开发者门户页。
- 第三方报道:HPCwire 等对 Ising 发布的生态与应用报道。
版权说明
- 本文由“大国AI导航(daguoai.com)”基于公开可查的官方与权威渠道资料编写,仅作技术科普与资讯分享之用。
- 文中所涉产品名、商标与技术指标归 NVIDIA 及相关权利人所有,本文不构成任何明示或暗示的担保或背书。
- 未经大国AI导航书面许可,禁止以任何形式整篇转载或洗稿后发布;如需转载,请在文首显要位置注明“来源:大国AI导航(daguoai.com)”,并保留本文的“文章来源”与“版权说明”部分。
数据评估
关于NVIDIA Ising特别声明
本站大国Ai提供的NVIDIA Ising都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由大国Ai实际控制,在2026年4月15日 上午10:51收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,大国Ai不承担任何责任。
相关导航

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

Gemma 4
Gemma 4 是 Google DeepMind 发布的新一代开放模型家族

Qwen3.6-Plus
Qwen3.6-Plus 是阿里推出的新一代大语言模型,定位为 Qwen Plus 系列的旗舰预览版,主打“强推理 + 长上下文 + 强智能体”能力。

Claude Opus 4.6
Claude Opus 4.6 是 Anthropic 于2026年2月5日发布的最新旗舰级大语言模型。

通义万象2.6
通义万象2.6于2025年12月16日正式发布,首次在国内实现角色扮演、音画同步与多镜头叙事三大核心功能。

Claude 4
Claude 4 是 Anthropic 于 2025 年 5 月正式推出的下一代大型语言模型(LLM),包含旗舰版 Claude Opus 4 和性能优化版 Claude Sonnet 4。其核心优势在于超强的代码能力、长周期任务处理能力(如连续编程 7 小时)以及对复杂指令的精准响应。Claude 4官网入口:anthropic.com/claude4

Marble模型:从单张2D图像生成完整3D世界
World Labs 最新发布的Marble模型,实现了从单张2D图像生成完整3D世界的能力。

o4-mini
o4-mini是OpenAI于2025年4月17日推出的一款轻量级推理模型,专为数学、编程和视觉任务优化设计。
暂无评论...
