Kaiyun(凯云)中国·官方网站

行业动态
NEWS
行业动态
NEWS
联系我们
Contact us

联系人: 张生

手机: 13845690023

电话: 0512-50135789

邮箱: 520233699@qq.com

地址: 江苏省苏州市姑苏区白洋湾街道朱家湾街8号2幢B座406区01室

行业资讯

成为物理AI时代的“安卓”英伟达开年炸场

作者:小编 点击: 发布时间:2026-01-08 20:16:05

  

成为物理AI时代的“安卓”英伟达开年炸场(图1)

  美国当地时间1月5日,在2026 年CES消费电子展的舞台上,英伟达CEO黄仁勋依旧身着标志性皮衣“闪亮”登场,却带来了一场颠覆行业认知的演讲。

  没有延续五年的新显卡发布惯例,取而代之的是足以重构AI产业格局的超算平台、开源生态与物理AI落地方案,老黄甚至将一台重达2.5吨的Vera Rubin NVL72机架搬上舞台,直观展示算力基础设施的实体形态。

  “物理AI的ChatGPT时刻即将到来。”黄仁勋认为,AI发展的下一站是进入物理世界,而英伟达已为此工作了8年。

  这场近两小时的演讲里,是英伟达从 “算力提供者” 向 “物理 AI 定义者” 的全面转型,也标志着 AI 行业正式迈入从数字世界渗透到物理世界的全新阶段。从算力成本的 “腰斩”,到自动驾驶的“会思考”,再到物理AI的 “开源革命”,英伟达正用一套全栈方案,重新定义智能世界的规则。

  AI 的算力需求每年增长 10 倍,Token 生成量每年增长 5 倍,只有提前建好 “算力高速公路”,才能抓住下一波 AI 爆发的红利。

  黄仁勋在演讲中重申了去年立下的 “军令状”:未来五年将投30到40万亿美元,死磕 AI 基础设施。

  这一豪言壮语正在通过 Vera Rubin 超算平台的大规模投产逐步兑现。

  如果说上一代 Blackwell 架构打破了单卡性能极限,那这次发布的 Vera Rubin,直接解决了 AI系统规模化的 “老大难” 问题。

  这套以天文学家命名的架构,是英伟达第一次把 CPU、GPU、网络、存储、安全当成整体设计,核心就一个:不再 “堆显卡”,而是让整个数据中心成为一台高效运转的AI超算力机器。

  Vera Rubin不是单一芯片的升级,而是6颗关键组件的 “无缝协作”,每一颗都瞄准AI的痛点。

  更关键的是,性能飙升的同时成本大幅下降 —— 训练 MoE 模型所需 GPU 数量减少 1/4,推理 Token 成本直接降至原来的 1/10。

  如果说过去英伟达还在兼顾游戏与 AI 双赛道,如今则彻底 “All in AI”。从行业趋势来看,AI 模型参数每年增长 10 倍,推理时的Token处理量每年提升 5 倍,而算力需求的爆发式增长,远非游戏市场的增量所能比拟。

  黄仁勋的战略判断清晰而坚定:未来算力将像电力一样廉价,而 AI 的大爆发,必须建立在极致的算力基础设施之上。放弃游戏显卡的短期收益,换取的是物理 AI 时代的绝对话语权,这正是英伟达的长期主义布局。

  有了算力底座,AI 终于能走出屏幕,走进真实世界。老黄在演讲里反复强调:“AI 的下一个拐点,是理解物理世界 —— 重力、摩擦、交通规则,这些都要靠物理 AI 来解决”。而自动驾驶和机器人,正是物理 AI 的 “第一个练兵场”。

  如果说算力是物理 AI 的“心脏”,那么自动驾驶和机器人就是物理 AI 的 “手脚”。

  “我想我们都同意,从非自动驾驶汽车到自动驾驶汽车的转折点,可能就发生在这个时候。”黄仁勋表示,未来十年里,可以相当肯定,世界上很大一部分汽车将是自动驾驶或凯云官网高度自动驾驶的。

  在自动驾驶赛道,英伟达发布了全球首个具备显式推理能力的端到端AI模型 Alpamayo。

  与传统自动驾驶系统只能执行动作、无法解释原因不同,Alpamayo 能够像人类司机一样思考和推理,不仅能完成转向、制动、加速等操作,还能清晰说明决策的因果逻辑和行驶轨迹。

  这一能力彻底解决了自动驾驶的 “长尾场景” 难题 —— 面对交通灯故障、行人突然闯入、临时施工等罕见情况,Alpamayo 能将复杂场景拆解为熟悉的物理与交通子问题,通过推理完成应对。

  实测数据显示,该模型规划精度提升 12%、越界率降低 35%、近碰率降低 25%,端到端延迟降至 99ms,在演示中实现全程 0 接管点到点行驶。

  为了降低行业门槛,英伟达将 Alpamayo 全家桶开源,包括 凯云官网100 亿参数的核心模型(已上线 Hugging Face)、AlpaSim 仿真框架(GitHub 开源)以及 1700 小时覆盖全球复杂路况的驾驶数据集。

  更重要的是,2025款梅赛德斯-奔驰CLA 已确定首发搭载该系统,2026年第一季度将在美国上路,第二季度登陆欧洲,下半年推向亚洲市场,Lucid、捷豹路虎、Uber 等企业也已明确合作意向。

  此外,黄仁勋还指出,升级后的Drive Thor算力达到2000TOPS,已斩获15+车企订单,将于2027年量产。

  机器人要走进家庭、工厂,光有算力不够,还得 “懂物理规律”—— 比如拿杯子不能太用力,走斜坡要防打滑。英伟达的 Cosmos 平台,就是帮机器人 “在虚拟世界练够本事” 再上岗。

  Cosmos 平台新版本包含 Cosmos Reason 2 视觉 - 语言推理模型,能让机器人像人类一样 “看懂” 世界并进行逻辑推理;Cosmos Transfer 2.5 和 Predict 2.5 则可生成符合物理规律的合成数据,解决机器人训练数据稀缺的痛点。

  专为机器人打造的 Isaac GR00T N1.6 模型,解锁了人形机器人的全身控制能力,使其不再四肢僵硬。同时,英伟达推出 Jetson T4000 边缘计算模组,将 Blackwell 架构带到边缘端,算力高达 1200 FP4 TFLOPS,是上一代的 4 倍,70 瓦低功耗适配能源受限的自主设备,1000 台起订价仅 1999 美元,大幅降低了机器人厂商的硬件成本。

  黄仁勋强调,未来的机器人将先在 Omniverse 虚拟环境中完成 90% 的训练,再进入物理世界,而 Cosmos 与 Jetson 的组合,正是这一模式的核心支撑。

  去年行业最重要的改变之一就是开源模型真正起飞。他专门提到中国的DeepSeek R1,称该模型让世界为之惊讶,并真正激活了这场全球性的开源运动,并且它们的性能越来越逼近领先的前沿模型。

  黄仁勋在演讲中多次强调:“开放模型已触及前沿,虽然仍落后顶尖闭源模型约六个月,但每隔半年就会有新模型涌现。”

  基于这一判断,英伟达在这次CES上直接抛出 “开源全家桶”,构建一套覆盖模型、框架、数据集的全栈开源生态,目标很明确:做物理 AI 时代的 “安卓”,让车企、机器人公司像做手机一样简单地开发智能产品。

  以前车企自研自动驾驶,要花几亿搞数据、搭框架,现在英伟达把 “全套工具” 都开源了。除了自动驾驶领域的 Alpamayo,英伟达还开放了 Nemotron 模型家族(针对语音、RAG、安全三大场景)、Cosmos 系列物理 AI 模型、Isaac GR00T 机器人模型等。

  配套的开源资源包括 10 万亿语言训练 Token、50 万条机器人轨迹数据、45.5 万个蛋白质结构、100TB 车辆传感器数据,几乎覆盖了物理 AI 的核心应用场景。这些资源全部上线 Hugging Face、GitHub 等主流开源平台,开发者可以 “拿来即用”,无需重复造轮子。

  例如,初创机器人公司无需从头研发视觉推理模型,通过调用 Cosmos Reason 2 即可快速实现环境感知;车企想要开发 L4 级自动驾驶,基于 Alpamayo 的开源框架和数据集,可大幅缩短研发周期。

  开源生态的背后,是英伟达构建产业协同的深层逻辑。目前,该生态已吸引了全产业链伙伴:云厂商通过部署 Vera Rubin 平台提供 AI 算力服务;车企借助 Alpamayo 快速落地高阶自动驾驶;机器人厂商通过 Jetson 模组和 Isaac 框架降低硬件与软件成本;硬件供应商如博世、索尼、奥比中光等则提供适配的传感器与执行器。

  这种 “开源 + 硬件绑定” 的模式,与安卓系统异曲同工 —— 开源降低了开发者门槛,吸引大量用户涌入,而这些用户最终都会成为英伟达硬件的消费者,形成 “生态繁荣→硬件销售增长→生态再升级” 的正向循环。

  英伟达在此次CES上发布Vera Rubin 架构、Alpamayo 模型、开源生态,并不是孤立的产品,而是英伟达编织的一张 “物理 AI 网”—— 从底层算力到上层应用,从技术方案到生态伙伴,每一环都在指向一个目标:让 AI 走出数字世界,成为改造物理世界的 “核心动力”。

  老黄在演讲结尾说:“未来所有应用,都会建在 AI 之上”。这句话的背后,是英伟达的终极野心 —— 不仅要卖算力,还要成为物理 AI 时代的 “基础设施提供商”:汽车要自动驾驶,靠 Alpamayo;机器人要干活,靠 Cosmos;工厂要智能化,靠 Omniverse;药企要研发新药,靠 Clara。

  就像电力改变工业时代一样,英伟达想让物理 AI 改变智能时代。返回搜狐,查看更多


相关标签:
热门产品