来源:聪明投资者
$英伟达 (NVDA.US)$ 仍然稳居全球市值之巅。但在创始人黄仁勋眼中,这家庞然大物依然像30年前那样,依然保持着“小公司”心态的拼命现状。
在刚刚结束的GTC 2026之后,黄仁勋现身老朋友本·汤普森(Ben Thompson)的播客节目,进行了一场深度复盘。
这场对话的含金量,在于黄仁勋反复拆解英伟达的“底牌”,他不仅在造算力,更在定义一套让万物皆可加速的生存法则。
在这场对话中,有三个信号值得投资者关注:
第一,从蓬勃发展的CPU业务(如Vera)到对Groq的关键收购,这些动作看似偏离了单纯的GPU轨道,实则是黄仁勋对“加速计算”的终极补完。他直言,英伟达从不反CPU,但在AI智能体时代,决不能让昂贵的算力因CPU的平庸而白白糟蹋。
第二,为什么AI 以前不好收钱?黄仁勋指出,当AI从单纯的信息检索进化到像编程、建筑设计这样可执行的任务时,经济价值才真正爆发。这种从“概率正确”向“任务交付”的跨越,正是AI商业化的分水岭。
此外,面对中国市场,黄仁勋展现了一贯的格局和远见。他点名赞赏了DeepSeek、Kimi、Qwen等中国原创力量,并警示华盛顿,不要被“末日论”的科幻噱头吓破了胆,若不让技术在竞争中扩散,美国反而有可能被时代甩在身后 。
访谈最后,黄仁勋说,
“我们现在依然在全力冲刺。我们并没有表现得像一家拥有深宅大院、可以躺在护城河里享清福的巨头。
相反,我们正在推倒重来——重塑网络、重塑CPU、重塑软件栈。甚至为了重新定义推理架构,我们不惜通过收购来打破现状。
这怎么看都不像是一家觉得自己‘已经赢麻了’的公司。”
让人激赏。
聪明投资者整理分享给大家。
01、英伟达的CUDA核心
本·汤普森 这次演讲你花了很多篇幅解释英伟达究竟是什么,从可编程着色器的历史讲起,一直到20年前CUDA的发布。为什么你觉得现在有必要重讲这个故事?为什么要重新定义CUDA及其重要性?
黄仁勋 嗯,因为我们正在进入大量全新的行业。
而且,AI将会学会使用工具,而这些工具原本是我们为人类创造的。AI会用Excel,会用Photoshop,会用逻辑综合工具、Synopsys工具和Cadence工具。
这些工具必须经过“超级加速”,它们要使用的数据库也必须超级加速,因为AI的运行速度极快。
所以我认为在这个时代,我们需要让世界上所有的软件都尽可能快地实现加速,然后把它们放在AI面前,让AI能够以“智能体”的方式调用它们。
本·汤普森 所以,这算不算是我们已经为一部分行业做好了准备,现在要推广到更多行业?
黄仁勋 没错,多得多。例如,数据处理。
本·汤普森 这确实让人意外。我没预料到你会以和IBM的合作开场。
黄仁勋 是的,这能让大家看清大局。毕竟,IBM才是这一切的开山鼻祖。
本·汤普森 你上周写道,AI是一块“五层蛋糕”:电力、芯片、基础设施、模型和应用。你是否担心在过去四五年里,英伟达会被外界固化在“芯片”这个盒子里?所以强调英伟达是一家垂直整合的公司很重要。
黄仁勋 我想我的思维方式不是从“我不是什么”开始的,而是从“我们需要成为什么”开始的。
早在多年前,我们就意识到加速计算是一个全栈问题,你必须理解应用才能加速它。我们意识到必须掌握应用逻辑,必须拥有开发者生态系统,必须在算法开发方面拥有卓越的专长。
因为那些为CPU开发的老算法在GPU上表现并不好,所以我们必须重写、重构算法,使其能被我们的GPU加速。
但如果我们这样做,就能获得50倍、100倍甚至10倍的提速,这完全值得。
我想从最开始,我们就意识到:“好吧,我们想做什么?达成目标需要付出什么?”
如今,我们正在全球范围内建造AI工厂和AI基础设施。这比单纯造芯片要复杂得多。
当然,造芯片至关重要,它是基石。
本·汤普森 没错,那是一套完整的堆栈,做网络、做存储,而现在你们又涉足了 CPU。
黄仁勋 现在你必须把所有这些整合进这些巨大的系统中。
一个“吉瓦级”的工厂可能耗资500亿到600亿美元。在这笔资金中,大约150亿到170亿美元是基础设施,包括土地、电力和厂房建筑。剩下的则是计算、网络、存储之类的东西。
面对这种级别的投资,除非你能给客户足够的信心,让他们确信自己能成功建成并运行,否则你根本没戏,没人会拿500亿美元去冒险。
所以我认为核心理念是,我们不仅要帮客户造芯片,还要帮他们造系统;造完系统后,还要帮他们造AI工厂。
AI工厂内部含有大量软件,不只是我们的软件,还有大量用于冷却管理、电力控制、冗余设计的软件。
过去,由于各环节缺乏沟通,很多设计是过度冗余的。
当一群互不沟通的人去集成系统时,根据定义,你必须过度设计你负责的那部分。但如果我们作为一个团队共同协作,就能确保推向极限,从现有的电力中获得更高的吞吐量,或者在同样的吞吐量要求下节省资金。
02、软件、推理与新架构
本·汤普森 回到软件那块,你提到Excel最初并不是为AI使用而设计的。现在像Claude已经有了调用Excel的新功能。
当你谈到投资这些时,是为了让这类模型表现得更好吗?还是说这是给$微软 (MSFT.US)$或企业客户准备的,即你们想使用这些工具,但不想受制于生态系统中的其他玩家?
黄仁勋 嗯,SQL(结构化查询语言)就是一个很好的例子。
SQL是供人使用的,我们和其他人一样在SQL系统上运行业务,它是商业世界的“事实来源”。
现在,不再仅仅是人类在查询我们的SQL数据库了,将会有一大群智能体在上面进行查询。
本·汤普森 没错,它们的查询速度会快得多。
黄仁勋 它们的需求速度会快得多。所以我们要做的第一件事就是加速SQL,这就是最简单的逻辑。
本·汤普森 很有道理。关于模型,你提到语言模型只是其中一个类别。你在上周的文章中写道:“一些最具变革性的工作正发生在蛋白质AI、化学AI、物理模拟、机器人和自主系统领域。”
你之前在其他主讲演讲中也提过这个观点,我记得你用过一句话,叫“万物皆Token”。你认为Transformer架构是开启万物的钥匙吗?还是说我们需要新的基础性突破来支撑这些应用?
黄仁勋 我们需要各种各样的新模型。例如,Transformer的注意力机制能力是呈平方级增长的,那么你如何拥有超长记忆?你如何进行一场持续很久的对话,而不让KV缓存随时间推移变成一堆垃圾?
本·汤普森 或者说,不用为了装载KV缓存而搞出整机柜的固态硬盘。
黄仁勋 没错。而且,假设你能记录下我们所有的对话,当你回头去引用某段对话时,引用的哪部分最重要?
这里需要一种能够正确处理注意力并能极速处理的新架构。
我们开发了一种结合了Transformer和 SSM(状态空间模型) 的混合架构,这使得 Nemotron 3能够同时实现超高智能和超高效率,这就是一个例子。
另一个例子是开发具有几何感知能力的模型。这意味着生命和自然界中的许多事物都是对称的。
当你生成这些模型时,你不希望它只生成统计上看起来合理的模型,它还必须符合物理规律,比如必须是对称的。因此,例如我们的cuEquivariance技术就能实现这一点。
所以我们拥有所有这些不同的技术。再举个例子,当我们生成文字Token时,它是分块输出的,一次一小点,一个Token接一个Token;但当你生成动作(motion)时,你需要它是连续的。
因此,既有你需要生成和理解的离散信息,也有你想要生成和理解的连续信息。Transformer架构并不能完美兼顾两者。
03、关于推理与编程
本·汤普森 还是想引用你文章里的一句话:“在过去的一年里,AI 跨越了一个关键门槛。模型变得足够好,可以大规模应用。推理变强了,幻觉减少了,落地应用有了显著改善。AI 首次开始产生真正的经济价值。”
我想聊聊具体发生了什么变化。按现在的势头,今年肯定是“智能体”的天下。但对去年来说,“推理能力”真的就是那个最核心的突破吗?
黄仁勋 生成式技术固然是里程碑,但它有个致命伤,爱一本正经地胡说八道(幻觉)。
所以我们必须让它“接地气”,而方法就是引入推理、反思、检索和搜索。
没有推理能力,这些辅助手段一个都玩不转。正是推理,让生成式AI真正扎根于现实。
一旦它能立足现实,你就可以让它去分析问题、拆解步骤,把它化整为零变成你可以实际操作的任务。于是,下一个阶段自然而然就演进到了“工具使用”。
这其实揭示了一个有趣的现象。你看,搜索曾经是一项没人愿意付费的服务,因为获取信息虽然重要,但大家习惯了不为此掏钱。
要想让用户掏腰包,你提供的价值必须远超“信息”本身。“哪家餐厅好吃?”这种单纯的信息,绝大多数人是不会买单的。
但现在,我们跨过了那个收费门槛。AI不再只是陪你聊天、给你塞信息,它现在能实实在在地为你“办事”了。
编程就是一个完美的例子。
你仔细想想,写代码和说话其实是两码事。你得教AI处理空格、缩进和符号,这几乎成了一种全新的模态。而且你不能像挤牙膏一样一次吐一点Token,你必须对整块代码进行重构。
这段代码必须逻辑自洽、必须是最优解,而且最关键的一点——它必须能编译。
它不能只停留在“大概率正确”的层面上,它必须“可执行”。
本·汤普森 没错,代码这东西很诚实,要么跑得通,要么跑不通。
黄仁勋 必须跑得通。所以,让AI学会编程这种模态是一件极其重大的事。
一旦拥有了这种能力,你想想,我们以前每年花几十万美元聘请工程师写代码,而现在他们有了编程助手。工程师们可以腾出手去思考更高维度的架构了。
以前写程序是个体力活,极其费劲;现在他们可以用“规范”来定义软件,这更抽象,也更高效。
他们把时间花在解决问题和创新上。现在我们公司的软件工程师100%都在用编程智能体。他们中很多人已经很久没亲手敲过一行代码了,但他们效率飞起,每天都忙得不可开交。
本·汤普森 但你担不担心,大家会因为编程具有“可验证性”,就对AI的能力产生过度的推演?毕竟智能体可以反复试错,直到跑通为止,这过程中甚至不需要人类参与。
黄仁勋 重点就在于这种“反思”能力。比如设计房子或厨房,这以前是建筑师的专利,但现在木匠也能做了。
你通过AI极大地拔高了木匠的能力上限。木匠可以用智能体去构思方案、设计风格。虽然智能体手里没拿锤子(物理工具),但它可以不停地迭代。
比如你给它一个参考,“这就是我想要的审美风格。”
智能体会不断自我反思,拿自己的方案去跟参考图对比。它会说:“嘿,这块儿弄得不如预期,我得重来一遍。”
它在不断地自我迭代。它生成的方案不一定要百分之百“可执行”(指物理实现),事实上,越是那些带点概率、涉及审美和主观判断的事情,AI 反而表现得越惊艳。
本·汤普森 很有意思。你这几乎涵盖了两个极端:一端是生成图像,没有标准答案;另一端是编程,对错绝对分明。AI似乎在两头都吃得很开,现在的悬念是,它能把这种成功多快地复制到中间那片广阔的地带。
黄仁勋 至少我们现在敢打包票,它能搞定建筑设计,也能搞定厨房和客厅的装修。
04、CPU在加速计算中的角色
本·汤普森 说到这儿,随着智能体的兴起,有个情况挺有意思。你以前总挂在嘴边的是“加速计算”,我记得你甚至还常给CPU泼冷水,说它们早晚会被取代,万物皆可加速。结果转眼间,CPU居然又翻红了。
既然你现在都亲自下场卖CPU了,它们显然变得既好用又关键。那么,当一个“CPU 推销员”的感觉怎么样?
黄仁勋 毫无疑问,摩尔定律确实到头了。但有一点要澄清,加速计算并不等同于并行计算。
回过头看30年前,当时市面上起码有二三十家做并行计算的公司,最后只有英伟达活了下来。
原因就在于,我们当时就看透了,目标从来不是为了干掉CPU,而是为了给应用加速。
本·汤普森 这么说,我刚才对你的“指控”虽然不成立,但搁在其他公司身上倒是一说一个准。
黄仁勋 我们从不反CPU,更不想去挑战阿姆达尔定律(Amdahl's Law,即系统的最终速度,取决于那部分无法被加速的瓶颈)。
在加速计算的逻辑里,我们反而在系统内部挑最顶级的CPU买,甚至买最贵的。道理很简单,如果那个CPU性能不是天花板级别的,它就会反过来拖累我那些价值数百万美元的芯片。
本·汤普森 以前搞分支预测,你心疼的是浪费了CPU时间,现在你心疼的则是GPU 时间被白白糟蹋。
黄仁勋 没错。你绝不能让GPU被冷落,绝不能让它在那儿空转。
所以我们才一直追求最强CPU,甚至到了自己动手造Grace的地步,就是为了拥有最猛的单线程性能,让数据传输快得飞起。
所以说,加速计算从来不排斥CPU。我的基本观点没变,阿姆达尔定律是绕不过去的。那种指望靠通用计算、拼命塞晶体管的老路子已经彻底死掉了。
但从根本上讲,我们对CPU没意见。
现在的这些智能体已经学会使唤工具了。可问题是,这些工具最初都是为人类设计的。它们大致分为两类:一类跑在数据中心,大多和SQL、数据库相关;另一类则是在个人电脑上。
我们要面对的,是那些能学会“非结构化操作”的AI。
你看,第一类工具是“结构化”的,比如命令行(CLI)或者接口(API)。这类工具指令明确、参数精准,你和应用的对话方式有一套死板的规矩。
但麻烦的是,还有海量的应用压根就没设计过什么接口。这就需要AI具备多模态能力,去学习那种“非结构化”的操作。
它得像人一样,会自己翻网页、找按钮、拉菜单,一点点摸索着来。这种活儿,非得靠PC不可。
而我们现在的策略是两手抓:一方面,我们有顶尖的数据处理系统;另一方面,你也知道,英伟达的工作站(PC)性能在全世界也是数一数二的。
本·汤普森 那么,一个“以智能体为核心”的CPU,和普通CPU 到底差在哪?听这意思,你打算搞一整柜的Vera CPU。
黄仁勋 噢,问得太准了。过去十年,CPU的设计哲学全是围着“超大规模云”转。
云厂商靠CPU核心数来变现,所以设计目标是核心越多越好,反正都是拿来租的,至于单核性能强不强,那是次要的。
本·汤普森 毕竟主要处理的是Web端的延迟。
黄仁勋 没错。你优化的是实例数量。所以你才会看到那些拥有两三百、甚至四百核的CPU冒出来。
但代价是,它们的单核性能都很平庸。可对于“智能体调用工具”这种场景来说,当GPU就在那儿干等着工具操作的结果时——
本·汤普森 而且你们之间还是通过NVLink连接的,速度极快。
黄仁勋 正是。这时候你最需要的,其实是一台单线程性能快到极致的计算机。
本·汤普森 所以这纯粹是速度竞赛吗?还是说CPU本身得变得更“并行”,去解决缓存未命中之类的问题?或者说,整个流水线的设计逻辑都变了?
黄仁勋 没错,最核心的就是单线程表现,再加上无敌的I/O。
因为现在数据中心里运行着海量的单线程实例,这会给I/O系统和内存控制器带来巨大的压迫感。
Vera每个核心的带宽、甚至整个芯片的总带宽,比以前任何一款CPU都要高出三倍。它的初衷就是靠海量的I/O和内存带宽,确保CPU永远不会成为瓶颈。一旦CPU慢下来,它拖累的可是身后那一整群 GPU。
本·汤普森 这个Vera机柜,你提到它和GPU结合得非常紧,但它依然是“解耦(即把原本紧紧捆绑在一起的组件拆开,让它们能够独立运行、独立升级、互不干扰)”的吗?也就是说,GPU能够同时为多个不同的Vera核心服务,而不是死死绑定在某一块板子上……
黄仁勋 没错,它们是解耦的。
本·汤普森 明白了,这逻辑很通。那么你和英特尔的合作,以及NVLink在这中间扮演了什么角色?
黄仁勋 问得好。虽然现在很多人对Arm架构很满意,但有些领域——尤其是企业级计算,还守着一大堆不想迁移的老技术栈,所以x86依然不可或缺。
本·汤普森 x86代码的生命力这么顽强,这事儿让你感到意外吗?
黄仁勋 并不意外。你看,英伟达的PC依然是 x86 架构,我们所有的工作站也全都是x86。
05、Groq收编是“战略性巧合”
本·汤普森 你在今天的演讲里自封为“Token 之王”。你在文章里也提到,电力是 AI 基础设施的“第一性原理”,它直接限制了系统能产出多少智能。既然Token产量受限于功耗,那为什么其他公司还觉得自己有戏,敢挑战你这个“Token 之王”?
黄仁勋 挑战确实很大,因为现在想光靠造出一颗芯片就搞出什么惊天动地的突破,已经不现实了。
就拿Groq来说,除非把它的技术和我们的Vera Rubin(英伟达下一代 GPU 架构)配对使用,否则Groq根本跑不出那种逆天的性能。
本·汤普森 展开讲讲,我正想问Groq的事儿。
黄仁勋 你看推理这件事,其实有两个极端:一头是你想追求最高的吞吐量,也就是单位时间吐出多少Token;另一头是你想交付尽可能 “聪明”的Token。Token越聪明,你才越能收高价。
如何在这两者之间找平衡,即在榨干吞吐量的同时还要顶住智能化的压力,这极其难办。
本·汤普森 我得提醒你,去年你有一张幻灯片专门讲了 “帕累托曲线”。你当时推销Dynamo编译器时还说,英伟达的GPU能完美覆盖整条曲线,用户闭眼买就行,Dynamo会帮你搞定一切。但你现在却改口说:“嗯,其实它也没法包圆儿。”
黄仁勋 我们的覆盖能力依然是全行业最强的。之所以要进一步拓宽这条“帕累托前沿”,特别是在极速Token速率和超低延迟这两个点上,是因为编程智能体出现了。
这些智能体能创造惊人的经济价值,而且它们是为“人”服务的,而人,才是这个世界上最昂贵、最有价值的资源。
本·汤普森 没错,人可比GPU贵多了。
黄仁勋 所以我想给我的软件工程师提供最顶级的Token速率。
如果Anthropic出一个“Claude Code”的高级版,能把编程速度提快10倍,我绝对毫不犹豫地买单。
本·汤普森 所以你这产品是先做给自己用的?
黄仁勋 大多数伟大的产品都源于你亲身体会到的痛点。
我们希望自家的编程智能体能快上10倍,但在一个追求高吞吐量的系统里,这几乎是不可能完成的任务。
所以我们决定把Groq的低延迟系统收进来,让两者协同办公。
本·汤普森 明白了。这仅仅是把解码(Decode)和预填充(Prefill)拆开处理吗?
黄仁勋 走得更远。我们甚至会把解码阶段里那些吃算力、涉及到注意力机制的部分,都专门拆出来处理。
本·汤普森 所以你们在解码这个层级上都实现“解耦”了。
黄仁勋 没错,这需要极度紧密的耦合和深层次的软件集成。
本·汤普森 你们动作怎么这么快?离收购才过了几个月,今年就能出货?
黄仁勋 事实上,我们对 “解耦推理(Disaggregated Inferencing)”的研究早就开始了。
当初推Dynamo时,英伟达就已经把底牌亮出来了。聪明人那天就该意识到,我已经在琢磨如何在异构基础设施上做更精细的推理拆分。
Groq的架构只是我们架构的一个极端变体,他们之前自己单干确实挺难的。
本·汤普森 看来你已经布局三五年了。那这次收购Groq团队,是有什么突发事件推了你一把吗?
黄仁勋 还是那句话,战略先行。
宣布交易前,我们其实已经合作了半年。把Grace Blackwell和Groq整合在一起,是我们早就定下的方向。
至于合作本身,我非常欣赏那个团队,但我对他们的云服务没兴趣。他们还有另一块自己坚信且做得不错的业务,那部分留给他们。
我们收了团队,拿了授权,从底层架构开始进行演进。
本·汤普森 所以这只是个美丽的巧合?
黄仁勋 应该说是 “战略性的机缘巧合”。
本·汤普森 因为OpenAI一月份刚宣布了跟Cerebras合作。
黄仁勋 那是他们的事,我当时甚至不知情,知道了也不会改变我们的决定。Groq 的架构依然是我的首选,它对我们来说更合逻辑。
本·汤普森 这是第一次有ASIC(专用集成电路)方案让你觉得“有点意思,这确实不一样”吗?
黄仁勋 不,上一个是Mellanox。
本·汤普森 确实,那是神来之笔。
黄仁勋 对,Mellanox。我们把一部分计算栈直接塞进了它的网络栈里。
要是没有这种“网内计算”,NVLink根本不可能做到今天这个规模。把软件栈拆解开,放在它最该去的地方,这是英伟达的拿手好戏。
我们不执着于在哪儿算,我们只在乎能不能给应用加速。记住,英伟达是一家加速计算公司,不是一家GPU公司。
本·汤普森 明白了。既然电力是硬约束,客户在选传统GPU还是选这种LPU(语言处理单元)机柜时,是不是应该相信:这玩意儿能给他们赚更多钱?
黄仁勋 取决于他们做什么产品。如果你现在还没有企业级用例,买Groq其实没啥意义。因为你大多数客户都是免费党,你正忙着把他们转化成付费用户呢。
如果免费客户占大头,加Groq只会增加成本和功耗,不划算。
本·汤普森 还有复杂度和服务器位带来的机会成本。
黄仁勋 没错。但如果你像Anthropic或者OpenAI旗下的Codex那样,手握极高经济价值的业务,只恨Token吐得不够快,那这时候加上这个加速器,你的收入真的会起飞。
06、中国市场竞争,以及华盛顿的“AI末日论者”
本·汤普森 到了2026年的今天,限制我们的到底是什么?是电力、晶圆产能,还是别的?大家都在喊缺货,真正的“天花板”在哪儿?
黄仁勋 我觉得几乎每一项都快顶到头了。现在你想把其中任何一项翻倍,基本都不可能。
本·汤普森 因为一旦你把其中一个翻倍,立马就会撞上另一个瓶颈。
黄仁勋 没错。
本·汤普森 不过我看美国在“搞电”这方面做得还行,比两年前大家想的要乐观。现在感觉芯片供应反而更像是那个掉链子的环节。
黄仁勋 我们的供应链计划其实定得很死。
你要知道,我们早就在为一个“超级大年”做准备了,甚至明年的计划都已经排好了。
本·汤普森 明白,我们也看到你跟那些供应链大佬喝烧酒、啃炸鸡的照片了。
黄仁勋 (大笑)对,就是那样。我们在全球有几百个合作伙伴,大家都是老交情。所以供应这块我心里有数。
我不觉得电力或芯片多到溢出来,没什么是过剩的。但在我看来,供应链层面我们完全能顶住。
我现在唯一的愿望,就是希望那些土地、电力设施和厂房外壳能盖得再快一点。
本·汤普森 那我是不是可以这么理解,只要“稀缺性”还存在,英伟达就是最大的赢家?比如电不够,因为你的芯片能效最高,大家就更得买你的;再比如产能有限,而你早就把上游锁死了。这种局面下,你们简直是通吃?
黄仁勋 这么说吧,我们是这个领域的头号玩家,而且计划做得早。
我们在供应链的上下游都布了局,与其说我们是赢家,不如说我们让所有合作伙伴都为这种爆发式增长做好了准备。
本·汤普森 明白了。但说到底,失去中国市场难道不是个致命伤吗?如果中国最后真搞出了充足的电和芯片——哪怕只是7纳米的,他们也有资本搞出一套能跟CUDA掰手腕的生态。你不担心这个吗?
黄仁勋 毫无疑问,我们必须让美国的技术栈留在中国。我一直坚持这个观点,因为开源软件是挡不住的。
中国对开源的贡献比谁都多,全球一半的AI顶尖人才也都在那儿,而且他们极具创造力。你看DeepSeek,那绝不是闹着玩的,非常厉害;Kimi、通义千问也都极其出色。
他们在架构和AI堆栈上都有原创性的贡献,我们必须给予最高级别的重视。
只要全世界还在用美国的技术栈做开发,那么当这些技术从中国回流(因为开源,这是必然的)到美国工业、东南亚或欧洲时,我们的生态系统就能无缝对接。
我始终认为,这是美国科技界最核心的地缘政治战略。
本·汤普森 确实。咱俩上次聊的时候,特朗普政府还禁了H20。你当时居然能说服他们接受你的逻辑,这挺让人惊讶的。更戏剧性的是,现在反倒是中国政府那边把你给卡住了。
黄仁勋 我对被卡住并不意外,中国当然想扶持自己的技术栈。在我们淡出那个市场的这段时间,中国工业的速度你是知道的,华为创下了历史最佳业绩。
他们还有好几家做AI芯片的公司排队IPO。
我觉得我们在思考美国领导力时,眼光得再放长远点。
AI不仅仅是一个模型,这是个巨大的误区。就像我说的,AI是块“五层蛋糕”,我们得在基础设施、芯片、平台、模型、应用这五层上全赢才行。
现在有些做法其实是在自毁长城,削弱我们在每一层领先的机会。
如果觉得赢的办法就是把这五层死死捆在一起,搞成一个封闭堆栈,导致我们只能在单体最弱的那一层水平上竞争,那简直是极大的错误。
我们得放手让每一层都去市场上拼杀、去赢。
本·汤普森 也许是因为其他层级的公司在华盛顿混得更久,而你们这些做芯片和平台的去晚了?
黄仁勋 呵,也许吧。
本·汤普森 那你学到了什么?关于华盛顿,最让你开眼界的是什么?
黄仁勋 最让我吃惊的是,“末日论者”居然能渗透得那么深,他们的言论已经彻底绑架了政策制定者的心理。
本·汤普森 结果就是每个人都在害怕,而不是在兴奋。
黄仁勋 没错。这会带来两个致命问题。
在这场工业革命中,如果我们不让技术在美国本土全面扩散,不赶紧利用起来,那我们的下场就会像上一场革命里的欧洲一样——被时代甩在身后。
要知道,上一场革命的很多技术其实是欧洲发明的,但最后真正占到便宜的是我们。我希望我们能有这份历史智慧,别被那些吓唬外行人的科幻小说和“末日论”给带坑里去。
我最担心的就是民调显示AI的受欢迎程度在下降,这太要命了。这跟当年人们反电力、反发动机、反互联网没什么区别。
如果别国利用技术的速度比我们快,技术就会更快地融入他们的社会。我们必须警惕这种把技术“妖魔化”的科幻噱头,它除了吓唬人,一点用都没有。
我不喜欢那些在外面散布恐慌的“末日论者”。真正的风险预警和纯粹为了制造恐慌的修辞是有本质区别的。
本·汤普森 这种现象挺典型的,聪明人喜欢戴上深度思考的帽子去抠细节,却忘了大众传播看的是大基调。你不能一边说“我有点怕这个但不怕那个”,一边指望大家不恐慌。你传递出来的就是恐惧,而不是乐观。
黄仁勋 是啊,而且这么做好像能让他们显得更聪明。
本·汤普森 谁不喜欢显摆自己聪明呢?
黄仁勋 有时候是为了听起来聪明,有时候是为了筹款,甚至是为了搞“监管捕获”来保护自己的地盘。理由多得是。
这些人确实绝顶聪明,但我得提醒他们,这些小动作很可能会产生回弹甚至反噬。总有一天,他们会为今天的所作所为感到后悔。
07、英伟达的本质
本·汤普森 最后,咱们聊聊英伟达本身。英伟达现在已经是全球市值最高的公司了。这感觉真实吗?你会感到害怕吗?还是说,就像你以前常说的那样,你依然觉得公司“离破产永远只有30天”?
黄仁勋 说实话,没什么实感。当你待在一家公司长达32年时,你看它的视角会变得非常固定。
在我眼里,我们依然是当年那家小公司,而且我们至今也还是按那种“生存模式”在运转。
我依然时刻对公司的处境感到担忧,对技术变革那惊人的速度感到敬畏。
你看,我们现在依然在全力冲刺。我们并没有表现得像一家拥有深宅大院、可以躺在护城河里享清福的巨头。
相反,我们正在推倒重来——重塑网络、重塑 CPU、重塑软件栈。甚至为了重新定义推理架构,我们不惜通过收购来打破现状。
这怎么看都不像是一家觉得自己“已经赢麻了”的公司。
本·汤普森 你在演讲结尾提到,希望英伟达成为“产生智能的引擎”。这是否意味着,在你的终极蓝图里,英伟达不该被看作硬件公司,甚至不只是软件公司,而更像是一家“公用事业公司”?
黄仁勋 我更愿意称之为一家“赋能公司”。
我们提供的是这个时代的“普罗米修斯之火”,或者是这个时代的电力。我们的天职,就是确保这种能源尽可能地廉价、普及且高效。
如果这种“智能”能渗透进每一个行业,从研发新药、设计更安全的汽车,到让每个普通人的工作效率提升十倍,那我们就完成了使命。
至于别人怎么称呼我们,我压根不在乎。只要我们还在解决那些“不靠加速计算就无解”的难题,我们就没走错路。
编辑/rice