在 CES 2026 上, 英伟达 增加产品和合作伙伴公告,强调从计算基础设施到车辆、机器人和工业机器中的嵌入式人工智能的连续技术链,同时依靠领先的工业、云和软件合作伙伴网络。
2026 年版的基石是平台的推出 鲁宾。 Rubin 被定位为“AI 超级计算机”,标志着 NVIDIA 定位的演变,不再强调孤立的芯片,而是一个完整的架构,由 代码设计 大约六个组件:Vera CPU、Rubin GPU、NVLink 6 互连、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网。目标是降低下一代人工智能训练和推理的总体成本,以促进大规模采用。 NVIDIA 声称与 Blackwell 相比有显着的进步,特别是在代理和长推理工作负载占主导地位的背景下,在每个代币的成本和专家混合模型的效率方面。
此公告得到了生态系统的广泛支持,包括主要云提供商(亚马逊网络服务, 微软, 谷歌云 和 Oracle 云基础设施) 这确认了 2026 年基于 Rubin 的实例的到来。在用户方面,AI 的主要参与者如 开放人工智能, 人择, 元, 米斯特拉尔人工智能 或者 xAI 是这一轨迹的一部分,验证了 NVIDIA 基础设施在下一阶段 AI 扩展中的中心地位。
继 Rubin 之后,NVIDIA 也强调了 蓝场-4 和 推理上下文内存存储平台,一种新的砖块,旨在应对上下文记忆需求的爆炸式增长。随着模型进行多轮推理并且 AI 代理变得持久,存储和共享 KV 缓存变得至关重要。 NVIDIA 在这里提供了一种 AI 原生方法,能够提高代币吞吐量和能源效率,依赖于存储和基础设施合作伙伴的生态系统,包括 戴尔科技公司, 惠普, 国际商业机器公司, 纯存储 或者 威卡。
在用途方面,NVIDIA 拓宽了其范围 阿尔帕马约,一系列用于自动驾驶的开放模型和工具。挑战在于处理罕见且复杂的场景,这些场景仍然会减慢 4 级自治的速度。通过将视觉-语言-动作模型与显式推理、模拟和开放数据集相结合,NVIDIA 打算加速开发更强大的自主堆栈。 Nvidia 依赖其合作伙伴,例如 捷豹路虎, 清醒汽车公司 和 优步,以及学术研究 伯克利深驱动,以加速这种采用。
此次发布会的另一个主要焦点是机器人技术,NVIDIA 在这一领域展示了新的开放模型,包括 Cosmos、Isaac 和 GR00T,以及旨在简化能够推理和学习多项任务的机器人的模拟、训练和评估的开源框架。这种方法旨在将专用机器转变为更通用的机器人,同时降低开发成本和复杂性。工业玩家喜欢 波士顿动力公司, 毛虫, 神经机器人 或者 LG电子 将利用 CES 展示集成 NVIDIA 堆栈的机器人。
最后,NVIDIA 展示了这些模块在量产汽车中的融合 梅赛德斯-奔驰。新款CLA是首款基于MB.OS平台的型号,包括软件 驾驶视听 来自 NVIDIA 的高级 2 级驾驶员辅助功能,其架构通过 Halos 系统将端到端人工智能和冗余安全堆栈相结合。此次合作展示了软件定义的人工智能如何快速转化为现实世界的功能。
通过这些产品和合作伙伴公告,NVIDIA 在 CES 2026 上确认其有能力围绕同一技术堆栈将合作伙伴和客户团结起来,旨在为工业人工智能提供参考。