北京国际车展前,在英伟达北京的一间会议室里,英伟达全球副总裁吴新宙指向PPT中那个被他称为“最重要”的数字——13 T(trillion)。
“每年全球车辆行驶的里程大概是13万亿英里,猜一下现在自动驾驶的里程占比是多少?他目光扫过在场的媒体,“0.006%,基本上可以忽略不计。”
“但我们坚信未来的每一英里都会变成自动驾驶。”吴新宙说。他提到黄仁勋经常引用的比喻:自动驾驶已经到了ChatGPT时刻,“我们感觉能够看到L4的曙光了。”
他表示,自动驾驶将是物理AI领域最早实现大规模量产落地的场景,并向第一财经等媒体解读了英伟达辅助驾驶背后的“五层蛋糕”以及L4级自动驾驶发展路线图。在采访中,吴新宙还回应了包括与车企自研芯片的竞争、是否搭载激光雷达以及近期行业热议的是否跨过L3直接进入L4等话题。
辅助驾驶的“五层蛋糕”
今年GTC前夕,吴新宙和英伟达创始人兼首席执行官黄仁勋共同乘坐一辆辅助驾驶汽车前往旧金山,搭载了英伟达全栈辅助驾驶软件平台DRIVE AV。接着,英伟达推出推理VLA(视觉动作语言)模型Alpamayo 1.5,并宣布与Uber、比亚迪、吉利等厂商在L4或Robotaxi方面的合作。
在今年北京国际车展期间,英伟达与多家汽车制造商及 DRIVE 生态伙伴集中展示了智能汽车领域的最新进展。除了与奇瑞汽车围绕辅助驾驶、座舱 AI 与机器人等展开合作外,在智能驾驶层面,英伟达分别与德赛西威、小马智行深化合作;在座舱 AI 上,阿里巴巴通义大模型事业部将千问‑Omni 全模态大模型部署于NVIDIA DRIVE平台上。此外,联想车计算也推出了搭载 NVIDIA DRIVE AGX Thor 的智算平台 AI Box,加速物理 AI的落地。
不论从什么层面看,英伟达在今天都不再只是一家辅助驾驶芯片供应商。
吴新宙告诉记者,黄仁勋对自动驾驶非常有感情,可以说有点“小执着”。
“他很早之前就看到,自动驾驶是物理AI中相对简单的一块,而且可以大规模量产。物理AI一定会推动第四次工业革命,它会导致生产力指数级增长。”吴新宙说,这种执念是基于对未来的清晰理解。
英伟达的汽车业务启程于10年前。2017年,英伟达提出了端到端解决方案。到了今天,英伟达汽车业务变得更庞大,吴新宙更愿意用“五层蛋糕”来形容这个体系。
他详细解释了英伟达辅助驾驶的“三台计算机”框架和“五层蛋糕”服务体系:“三台计算机”包括车端运行的推理计算机、云端用于模型训练的训练计算机,以及经常被忽略但如今至关重要的仿真计算机。基于这“三台计算机”构建的“五层蛋糕”,目的在于让车厂和开发者能基于英伟达平台更容易地开发辅助驾驶技术。
这“五层蛋糕”揭示了英伟达在辅助驾驶领域的生态位,也藏着英伟达物理AI的野心。在第一层的硬件层,英伟达定义了面向L4级自动驾驶的标准平台Hyperion,集成多模态传感器和集中式计算套件并提供自动驾驶模型所需能力。吴新宙说,其团队现在最重要的事情之一,就是尽量使所有车厂尽快上Hyperion平台。向上延伸则是操作系统与平台软件层,英伟达正在扩充Halos安全系统,加入SDK、传感器和车辆的扩展层等。
“蛋糕”的下一层是英伟达的开放模型Alpamayo、仿真工具及数据集。吴新宙说,Alpamayo继承了基础模型对物理世界的深刻理解,通过8万小时的驾驶数据进行微调,下一版本预计在6月推出。
辅助驾驶范式从模块化至端到端的转变让仿真变得重要,英伟达也进入了这个环节。英伟达通过仿真产生一些合成数据。吴新宙解释,在辅助驾驶1.0时代,系统可以按感知、规划、控制等模块分别验证,但在端到端时代,模型直接“像素进、轨迹出”,验证新模型需要重建物理世界的能力。英伟达现在每天可以进行200万次场景验证,大幅提升效率。
在第四层的应用层,英伟达对奔驰、Lucid等深度合作伙伴提供从底层硬件到上层应用的整套方案,融合端到端模型和经典规则算法。蛋糕最顶层的基础设施则是云端训练和仿真工具链,Omniverse 库和Cosmos 世界基础模型能生成准确且多样的传感器数据,加速辅助驾驶开发。
“对于全套解决方案团队,很重要的一件事是做从L2++到L3、L4的迁移。L3和L4非常重要的是要有冗余能力,例如L4会加激光雷达来确保安全。”吴新宙解释。
吴新宙还向在场的媒体公布了英伟达L4级自动驾驶发展路线图:2025年完成与奔驰合作的首次量产交付;2026年在美国推进L2++的规模化落地;2027年与谷歌合作在部分城市开始L4试点;2028年携手Uber在洛杉矶奥运会期间提供无人驾驶服务,并计划覆盖20到30个城市。
“这条路的机会已经比较清晰了。”吴新宙说,技术已经到了能看到L4即将发生的节点。从经济性看,每一英里自动驾驶解决方案的经济价值未来将在1~2美元之间,不论是对英伟达还是对其他厂商来说,这都是一个很大体量的生意。
车企自研芯片不是零和博弈
黄仁勋和英伟达的相关负责人已多次释放对辅助驾驶的信心,认为辅助驾驶在技术上没有明显卡点,当前需要的是在工程化上推动规模化和商业化落地。
吴新宙也表达了相似的观点。“没有大的技术瓶颈,看不到很大的技术卡点。L3和L4的技术难度差别也并不大。”他告诉媒体。
近期Robotaxi的快速铺开拉高了业界对L4级自动驾驶的期待。黄仁勋也在3月的GTC上表示,未来Robotaxi的数量将难以置信。与此同时,相比完全自动驾驶的L4,L3要求驾驶员及时接管,业界围绕权责问题多有议论。是否要直接跳过L3走向L4,成为摆在自动驾驶厂商面前的问题。
吴新宙在对话中谈到他的想法。“是不是要跳过L3是见仁见智的问题。对L3来说,如果要求驾驶员10秒内接管,这10秒已经可以发生无穷多的事,而车需要负完全责任,10秒变成60秒或更长时间并没有本质区别。”吴新宙说,L3的好处则在于,已经能在一定程度上解放人力。虽然驾驶员不能睡觉,但可以适当玩手机,这可能也是一种刚需。
相比之下,吴新宙认为,L4更需要的是庞大的云端远程操控能力作为后援,这对量产车厂商而言成本高昂。“至少在短期内,L3是有价值的,L4也没那么容易做,两者很可能会长期并存。”
此前辅助驾驶路线分化为纯视觉路线和多传感器融合的路线,前者不使用激光雷达。但随着L4级自动驾驶更加临近,激光雷达作为一种安全冗余,得到了更多重视。
吴新宙的想法是,L2++辅助驾驶是否需要激光雷达是见仁见智的问题,他是坚定的视觉派,认为视觉上限高且像素密度远高于激光雷达,但对于L3和L4级自动驾驶系统而言,激光雷达还是重要的一环。
吴新宙透露,英伟达在基础版的Hyperion平台中并未包含激光雷达,但已在与欧美厂商合作,寻找稳定的激光雷达供应商,以确保高阶辅助驾驶的安全性。
至于车端芯片算力要提升到什么程度才够用,有观点认为下一代辅助驾驶需要5000 TOPS的恐怖算力。吴新宙现场没有给出一个确定的数字,而是指出了几个对算力有指数级需求的维度:传感器的分辨率、处理帧率以及模型处理的长时序长期记忆的能力等等。
他强调,英伟达的目标是在不显著增加成本和功耗的前提下持续提升车端推理能力。“到底什么时候封顶我并不确定,但我只能告诉你,我们下一代的芯片正在往那个方向去走。”
英伟达深度布局辅助驾驶生态,一些客户同时也可能是英伟达的竞争者。在今年北京国际车展上,多家车企展示了自研芯片。面对这一行业趋势,吴新宙引用黄仁勋的话,“我们不指望你们买我们所有的东西,但我们也不希望你们什么都不要我们的。”
他举了特斯拉的例子,即便马斯克在早期用了英伟达的芯片后转身自研,两家公司的合作从未中断。在他看来,自研芯片与采用英伟达方案不是零和博弈,而是一个共存共生的生态关系,只要整个行业在向前奔跑,能从这“五层蛋糕”的某些层级中受益,英伟达就能在其中找到自己的位置。
至于车端“大脑”的形式,吴新宙谈到,车本身就是一个机器人,他认为汽车未来不需要两个“大脑”,AI在与人交互的部分和辅助驾驶的部分,未来都会走向集成化的方向。这不一定意味着座舱和辅助驾驶使用同一颗芯片,但AI可能会在硬件之间共享。他已经能看到这个趋势。
吴新宙还观察到,物理AI的热度已经从汽车蔓延到了更多领域。他笑称,国内很多同行都转去做机器人。“现在机器人还是在中国更热闹一些,让人非常激动,可以理解为什么大家现在都感觉回到了10年前新能源车企当时的状态。”他表示,做机器人比做辅助驾驶复杂得多,但现在大家可能会小看迈向辅助驾驶最后一步的重要性,而他自己作为深度参与中国辅助驾驶产业的技术老兵,现在有机会将中国经验通过英伟达平台进行全球化放大。