
来源:华尔街日报
当自动驾驶车队加速上路、迪士尼经典角色“走进现实”,英伟达正试图重新定义AI的未来。当地时间周一,在全球瞩目的GTC大会上,英伟达首席执行官黄仁勋宣布“推理时代”正式到来,并发布一系列颠覆性技术与合作布局
自动驾驶版图扩大:比亚迪、吉利、日产加入
大会上最受关注的现实应用之一,是英伟达在自动驾驶领域的进一步扩张。
英伟达宣布,其无人驾驶出租车计算系统新增多家重量级车企合作伙伴,包括:
- 比亚迪(BYD)
- 吉利汽车(Geely Auto)
- 日产汽车(Nissan)
黄仁勋表示,借助英伟达的AI芯片与仿真平台,这些车企将显著提升自动驾驶共享车辆的部署速度。
这也意味着,未来道路上基于英伟达技术的Robotaxi(无人出租车)数量有望快速增长,自动驾驶商业化正在进入加速阶段。
迪士尼“雪宝”登台:机器人走进现实世界
发布会尾声,一幕极具象征意义的场景引爆全场——
迪士尼《冰雪奇缘》中的经典角色“雪宝”(Olaf)以机器人形态登上舞台,与黄仁勋进行互动。
这个机器人由英伟达、DeepMind与迪士尼联合打造,基于英伟达Omniverse平台训练,具备真实物理世界中的行动能力。
“你是在Omniverse里学会走路的,”黄仁勋对它说。
“我真的超爱走路!”机器人回应,引发全场笑声。
黄仁勋描绘未来愿景:
“这就是迪士尼乐园的未来——这些机器人角色将真正走在你身边。”
这一展示被视为“物理AI”(Physical AI)迈向现实的重要标志。
宣告“推理时代”:AI从训练走向应用
在展示完应用场景后,黄仁勋正式提出核心判断:
“推理计算的拐点已经到来。”
所谓“推理”,是指AI模型在实际应用中响应用户请求、生成内容的过程。随着AI商业化加速,市场需求正从“训练模型”转向“高效运行模型”。
新一代超级系统发布:速度提升350倍
英伟达此次发布的核心产品,是全新AI服务器系统:
Nvidia Groq 3 LPX机架
该系统整合:
- 72台下一代Vera Rubin服务器
- 256颗全新“语言处理单元”(LPU)芯片
LPU由初创公司Groq开发,英伟达已通过约200亿美元交易整合其核心团队。
性能方面,该系统可实现:
- 每秒生成7亿个词元
- 速度达到Hopper架构的约350倍
破解AI瓶颈:内存提升500倍
传统GPU在推理场景中的问题在于:
- 功耗过高
- 内存不足
新系统通过引入超大规模高带宽内存(HBM),容量达到Hopper架构的约500倍,大幅缓解AI推理中的“内存瓶颈”。
黄仁勋称:
“这是AI工厂的核心引擎。”
万亿美元目标:英伟达押注未来
英伟达还上调长期预期:
- 预计到2027年底
- Blackwell与Rubin芯片累计销售额将达1万亿美元
这一数字较此前目标(2026年5000亿美元)几乎翻倍,显示其对AI需求爆发的强烈信心。
软件联盟与“AI即服务”趋势
除了硬件,英伟达还宣布成立AI软件联盟,成员包括:
- Cursor
- Mistral
- Perplexity
- Reflection
- Thinking Machines
目标是降低先进开源模型开发门槛,并推动行业从传统SaaS(软件即服务)向:
👉 Agent AI(智能体即服务)转型
超级数据中心落地:全球最大AI算力之一
与此同时,英伟达投资的英国云计算公司Nscale宣布:
将在西弗吉尼亚州建设一个1.35吉瓦数据中心集群,名为:
Monarch Compute Campus
该项目被称为全球最大的AI算力基础设施之一。
结语
从自动驾驶车队,到迪士尼机器人,再到万亿美元级芯片计划,英伟达正在构建一个全新的AI生态。
如果说过去十年属于“训练模型”,那么黄仁勋的判断是:
未来十年,将属于“推理与应用”。
而这场转变,正在从发布会舞台,走向现实世界。
