黄仁勋最新万字访谈:AGI即将来临,AI将彻底改变生产力
10月4日,英伟达首席执行官黄仁勋做客访谈节目Bg2 Pod,与主持人Brad Gerstne和Clark Tang进行了一场广泛的对话。
他们主要讨论了如何将智能扩展到AGI、英伟达的竞争优势、推理与训练的重要性、AI领域未来的市场动态、AI对各个行业的影响、Elon的孟菲斯超级集群与X.ai、OpenAI等话题。
黄仁勋强调了AI技术的迅速演变,尤其是通向通用人工智能(AGI)道路上的突破。他表示,AGI助理即将以某种形式出现,并且会随着时间的推移变得更加完善。
黄仁勋还分享了英伟达在计算革命中的领导地位,指出通过降低计算成本和创新硬件架构,英伟达在推动机器学习和AI应用中占据了显著优势。他特别提到英伟达的“护城河”,即其十年积累的软硬件生态系统,使得竞争者很难通过单一的芯片改进超越。
此外,黄仁勋赞扬了xAI和马斯克团队在短短19天内完成十万个GPU的孟菲斯超级集群建设,称这是“前所未有”的成就。这一集群无疑是全球最快的超级计算机之一,将在AI推理和训练任务中发挥重要作用。
谈及AI对生产力的影响,黄仁勋乐观地表示,AI将极大提升企业的效率,带来更多的增长机会,并不会导致大规模失业。同时,他也呼吁业界加强对AI安全性的关注,确保技术的开发和使用有益于社会。
全文要点总结如下:
Brad Gerstner:
今年的主题是将智能扩展到AGI。两年前我们做这件事的时候,我们是在AI时代做的,那是在ChatGPT的两个月前,考虑到所有这些变化,这真是令人难以置信。所以我觉得我们可以用一个思想实验和一个预测来开始。
如果我把AGI通俗地想象成我口袋里的私人助理,如果我认为AGI就是那个口语助理,我已经习惯了。它知道我的一切。它对我有完美的记忆,可以和我交流。他们可以帮我预订酒店,或者帮我预约医生。看看当今世界的变化速度,你认为我们什么时候才能拥有个人助理?
黄仁勋:
很快就会以某种形式出现。而且随着时间的推移,这个助理会越来越好。这就是我们所知道的美妙技术。所以我认为一开始它会非常有用,但并不完美。然后随着时间的推移,它会变得越来越完美。就像所有的技术一样。
Brad Gerstner:
当我们看看变化的速度时,我认为马斯克说过,真正重要的唯一事情就是变化的速度。我们确实感觉到变化的速度已经急剧加快,这是我们在这些问题上见过的最快变化速度,因为我们已经在AI领域摸爬滚打了十年,甚至更长。这是你职业生涯中见过的最快变化速度吗?
黄仁勋:
这是因为我们重新发明了计算。很多事情之所以发生,是因为我们在10年内将计算的边际成本降低了100000倍。摩尔定律应该是100倍左右。我们通过多种方式实现了这一点。首先,我们引入了加速计算,将CPU上效率较低的工作放在GPU上。我们通过发明新的数值精度来实现这一点。我们通过新的架构来实现这一点,发明了张量核心,以系统的方式构建MV Link,以及非常非常快的内存、以及使用MV Link进行扩展并在整个堆栈上工作。基本上,我描述的关于英伟达如何做事的一切都导致了超摩尔定律的创新速度。
现在真正让人惊奇的是,从此之后,我们从人工编程转向了机器学习。机器学习的神奇之处在于,机器学习可以学得非常快。事实证明如此。因此,当我们重新制定分配计算的方式时,我们做了很多,各种并行性。张量并行性,各种管道并行性。我们擅长在此基础上发明新算法和新训练方法,所有这些技术,所有这些发明都是相互叠加的结果。
回顾过去,如果你看看摩尔定律是如何运作的,软件是静态的。它是预编译的,就像放入商店的收缩筏一样。它是静态的,下面的硬件以摩尔定律的速度增长。现在,我们整个堆栈都在增长,整个堆栈都在创新。所以我认为,现在我们突然看到了扩展。
这当然是非凡的。但我们过去谈论的是预训练模型和在那个层面上的扩展,以及我们如何将模型大小翻倍,因此相应地翻倍,数据大小也翻倍。结果,所需的计算能力每年增加四倍。这是一件大事。但现在我们看到了后训练的扩展,我们看到了推理的扩展。所以人们过去认为预训练很难,推理很容易。现在一切都很难。这很有道理,但认为人类的所有思维都是一次性的想法有点荒谬。所以,必须有一个快速思考、慢速思考、推理、反思、迭代和模拟等概念。现在它正在出现。
英伟达的竞争护城河
Clark Tang:
我认为,关于英伟达最容易被误解的事情之一就是真正的英伟达模式有多深。我认为有一种观念,如果有人发明了一种更好的芯片,他们就赢了。但事实是,你花了十年时间构建从GPU到CPU再到网络的完整堆栈,尤其是支持应用程序的软件和库。在英伟达上运行。所以我认为你谈到了这一点,但当你想到英伟达今天的护城河时,,您认为今天的视频模式比三四年前大还是小?
黄仁勋:
好吧,我很感谢你认识到计算是如何变化的。事实上,人们认为(而且很多人现在仍然这样认为)设计出更好的芯片的原因在于它有更多的触发器、更多的位和比特。您明白我的意思吗?您会看到他们的主题演讲幻灯片。它有所有这些触发器、条形图和诸如此类的东西。这些都很好。我的意思是,看,马力确实很重要。是的。所以这些事情从根本上来说很重要。
然而,不幸的是,这都是想法。这都是在软件是运行在Windows上的某个应用程序并且软件是静态的意义上的想法,对吗?这意味着改进系统的最佳方法就是制造越来越快的船。但我们意识到机器学习不是人类编程。机器学习不仅仅是软件,这关乎整个数据管道。事实上,机器学习的飞轮才是最重要的。那么你如何看待我启用这个飞轮?一方面,让数据科学家和研究人员在这个飞轮中高效工作,而这个飞轮从一开始就开始了。很多人甚至没有意识到需要AI来管理数据,来教导AI。而AI本身就相当复杂。
Brad Gerstner:
AI本身在改进吗?它也在加速吗?再说一次,当我们考虑竞争优势时,是的,没错。这是所有这些的组合。
黄仁勋:
正是如此,正是因为有了更聪明的AI来管理数据,才会导致这种情况。我们现在甚至有了合成数据生成和各种不同的数据管理方式,向其呈现数据。所以在你接受培训之前,你就已经涉及了大量的数据处理。所以人们会想,哦,Pytorch,这是世界的开始,也是世界的终结。这非常重要。
但别忘了,在Pytorch之前和之后,飞轮的意义在于你必须思考的方式,我该如何思考整个飞轮,如何设计一个计算系统,一个计算架构,帮助你利用这个飞轮,让它尽可能高效。这不是一个应用程序训练的大小。这说得通吗?这只是一步。好吧。飞轮上的每一步都很难。所以你应该做的第一件事,不是思考如何让Excel更快,如何让doom更快,那是过去的事情,不是吗?现在你必须考虑如何让这个飞轮更快?这个飞轮有很多不同的步骤,机器学习并不容易,你们都知道。
OpenAI 或 X 或 Gemini 团队所做的事情都不容易,他们深思熟虑地思考着我们。我的意思是,他们做的事情并不容易。所以我们决定,你看,这才是你应该考虑的。这是整个过程,你想加速其中的每一部分。你要尊重多尔斯定律,多尔斯定律表明,如果这是30%的时间,而我将其加速了三倍,那么我并没有真正加速整个过程。这有道理吗?你真的想创建一个系统来加速每一步,因为只有做整个事情,你才能真正实质性地改善周期时间和飞轮,也就是学习率,最终才是导致指数级增长的原因。
所以,我想说的是,我们对公司真正做的事情的看法会体现在产品上。注意,我一直在谈论这个飞轮,整个网站。是的,没错。我们加速了一切。
现在,主要关注点是视频。很多人都专注于物理AI和视频处理。想象一下前端。每秒有TB的数据进入系统。举个例子,一个管道会接收所有这些数据。首先要准备好训练。是的,这样整个过程就可以加速。
Clark Tang:
今天人们只考虑文本模型。是的,但未来是,这个视频模型,使用一些文本模型,比如o1,在我们到达那里之前真正处理大量数据。
黄仁勋:
是的。所以语言模型会涉及到一切。但我们,这个行业花费了巨大的技术和精力来训练语言模型,训练这些大型语言模型。现在,我们在每一步都使用大型语言形式。这非常了不起。
Brad Gerstner:
我听到你说的是,在组合系统中,是的,优势会随着时间的推移而增长。所以我听到你说,我们今天的优势比三到四年前更大,因为我们正在改进每个组件。这就是组合,当你想到,例如,作为一个商业案例研究,英特尔,相对于你现在的位置,它拥有主导模式,在堆栈中占据主导地位。也许,再简单归纳一下,将你的竞争优势与他们在其周期高峰期所拥有的竞争优势进行比较。
黄仁勋:
英特尔之所以与众不同,是因为他们可能是第一家在制造工艺工程和制造方面表现出色的公司。制造上面说的就是制造芯片。设计芯片,在x86架构中构建芯片,制造越来越快的x86芯片,这是他们的才华所在,他们将其与制造融合在一起。
我们公司有点不同,我们认识到这一点,事实上,并行处理并不要求每个晶体管都表现出色,串行处理要求每个晶体管都表现出色。并行处理需要大量的晶体管才能更具成本效益。我宁愿晶体管多10倍,速度慢20%。然后晶体管少10倍,速度快20%。这有道理吗?他们想要相反的结果。因此,单线程性能、单线程处理和并行处理非常不同。因此,我们观察到,事实上,我们的世界并不是越走越好。我们想要做得非常好,尽可能好,但我们的世界真的在不断进步。
并行计算、并行处理很难,因为每个算法都需要一种不同的重构方式和重新构建算法的架构。人们没有意识到的是,你可以有3个不同的 CPU。它们都有自己的C编译器。你可以将软件编译到那个轴上。
这在加速计算中是不可能的。提出架构的公司必须提出自己的 Open GL。所以我们革命性地进行了深度学习,因为我们的领域特定库叫做cuDNN(深度神经网络库),一个领域特定库称为光学。我们有一个领域特定库,称为 cuQuantum。
Brad Gerstner:
对于位于下方的行业特定算法,您知道,每个人都关注的 Pytorch 层。就像我经常听到的那样。
黄仁勋:
如果我们不发明它,上面的任何应用程序都无法工作。你们明白我的意思吗?所以是英伟达真正擅长的算法。在底层架构之上的科学之间的传播,这就是我们真正擅长的。
英伟达正在构建一个完整的AI计算平台,包括硬件、软件和生态系统
Clark Tang:
现在所有的注意力都集中在推理上。但我记得,两年前,我和Brad共进晚餐时问过你一个问题,你认为你的护城河在推理方面会像在训练方面一样强大吗?
黄仁勋:
我不确定我是否说过它会更强。
Clark Tang:
你刚才提到了很多这些元素,两者之间的可组合性,或者,我们不知道整体组合。对于客户来说,能够在两者之间保持灵活性非常重要。但是,既然我们现在已经处于推理时代,你能不能谈谈?
黄仁勋:
推理训练就是在那种规模上进行推理。我的意思是,你是对的。所以如果你训练得当,那么很有可能你会推理得当,如果你在没有任何考虑的情况下在这个架构上构建它,它将在这个架构上运行。好吧,你仍然可以去优化它以适应其他架构,但至少,因为它已经在英伟达上构建了架构,它将在英伟达上运行。
现在,另一个方面当然只是一种资本投资方面,也就是当你训练新模型时,你希望用你最好的新设备进行训练。这会留下你昨天使用的设备,而这些设备非常适合推理。所以在新的基础设施背后有一系列免费的设备可以兼容。因此,我们非常严格地确保我们始终兼容,这样我们留下的一切都将继续保持卓越。
现在,我们还投入了大量精力不断重新发明新算法,以便当时间到来时,Hopper架构比他们购买时好两倍、三倍、四倍,这样,这个基础设施就会继续真正有效。因此,我们所做的所有工作,改进新算法、新框架。请注意,它有助于我们拥有的每一个安装基础。Hopper更适合它,Ampere更适合它,甚至Volta也更适合它。
我想Sam Altman刚刚告诉我,他们最近刚刚停用了OpenAI的Volta基础设施。所以我认为,我们留下了这条安装基础的痕迹,就像所有计算安装基础都很重要一样。英伟达涉足每一个云端,包括本地和边缘。
VILA的视觉语言模型在云端创建,无需修改,在机器人边缘也能完美运行。它们都具有良好的兼容性。因此,我认为架构兼容性对于大型设备非常重要,对于 iPhone 和其他设备也是如此。我认为安装基础对于推理非常重要。
黄仁勋:
但真正让我受益匪浅的是,我们正在努力在新的架构中训练这些大型语言模型。我们能够思考,在某一天时机成熟时,如何创建在推理方面表现出色的架构。因此,我们一直在思考推理模型的迭代模型,以及如何为此创建非常互动的推理体验,对吧,您的个人代理。您不想说完话后就离开并思考一段时间。您想很快与您互动。那么我们该如何创建这样的东西呢?
MVLink这样我们就可以采用这些非常适合训练的系统。但是当你完成它时,推理性能会非常出色。所以你想优化这个到第一个Token的时间。而到第一个Token的时间实际上非常难做到,因为到第一个Token的时间需要大量的带宽。但如果你的上下文也很丰富,那么你需要大量FLOPS。因此,你需要无限量的带宽,同时无限量的FLOPS才能实现几毫秒的响应时间。所以这个架构真的很难实现。我们为此发明了伟大的Blackwell MVLink。。
Brad Gerstner:
本周早些时候和 Andy Jassy(亚马逊总裁兼CEO)一起吃饭,Andy说,我们有 Tranium、Inferentia 即将到来。我认为大多数人再次将这些视为英伟达的问题。但接下来,他说英伟达是我们的重要合作伙伴,并且将继续是我们的重要合作伙伴。就我所见,未来世界将依靠英伟达。
所以当你想到正在构建的定制ASIC时,它们将用于目标应用。也许是Meta的推理加速器,也许是亚马逊的训练,或者谷歌的TPU。然后你想想你今天面临的供应短缺,这些因素会改变这种动态吗?或者它们会补充他们从你那里购买的系统?
黄仁勋:
我们只是在做不同的事情。是的,我们试图完成不同的事情。现在英伟达正在尝试为这个新世界、这个机器学习世界、这个生成式AI世界、这个代理式AI世界构建一个计算平台。我们试图创造,在计算领域,如此深刻的一点是,经过60年的发展,我们重新发明了整个计算堆栈。从编程到机器学习,从CPU到GPU,从软件到AI,应用程序从软件到AI。从软件工具到AI。因此,计算堆栈和技术堆栈的每个方面都发生了变化。
我们想做的是创建一个随处可用的计算平台。这确实是我们所做工作的复杂性,我们所做工作的复杂性在于,如果你仔细想想我们所做的事情,就会发现我们正在构建整个AI基础设施,我们把它看作一台计算机。我之前说过,数据中心现在是计算的单位。对我来说,当我想到计算机时,我考虑的不是芯片。我在考虑这个东西。这是我的思维模型,里面的所有软件、所有编排、所有机器,都是我的使命。这就是我的计算机。
我们每年都试图建造一台新的。是的,这太疯狂了。以前从来没有人这样做过。我们每年都试图建造一台全新的。每年,我们都提供两到三倍的性能。因此,每年,我们都会将成本降低两到三倍。每年,我们都会将能源效率提高两到三倍。因此,我们要求客户不要一次性购买所有东西,每年只买一点,对吗?好的。这样做的原因是,我们希望它们的成本在未来保持平均水平。现在,所有东西在架构上都是兼容的,所以以我们现在的速度单独构建这些东西是非常困难的。
现在,双重困难的部分是,我们接受所有这些,而不是将其作为基础设施或服务出售,我们不同意所有这些。我们将它集成到GCP、AWS、Azure、X 中。所以每个人的集成都不同。我们必须将我们所有的架构库、所有算法和所有框架集成到他们的框架中。我们将我们的安全系统集成到他们的系统中,我们将我们的网络集成到他们的系统中,对吗?然后我们基本上进行10次集成,现在我们每年都这样做。这就是奇迹。
Brad Gerstner:
我们,我的意思是,你每年都试图这样做,这太疯狂了。那么是什么驱使你每年都这样做呢?
黄仁勋:
是的,那就是当你系统地分解它时。你们分解得越多,每个人分解得越多,他们就越惊讶。是的。今天整个电子生态系统如何能够致力于与我们合作,最终构建出一个集成到所有这些不同生态系统中的计算机立方体,并且协调如此无缝。因此,显然我们向后传播的是API、方法、业务流程和设计规则,而向前传播的是方法、架构和API。
Brad Gerstner:
他们本来就是这样的。
黄仁勋:
几十年来,他们一直在努力。是的,而且随着我们的发展也在不断发展。但是,这些 AP 必须整合在一起。
Clark Tang:
有人只需调用 OpenAI API,它就可以工作。就是这样。
黄仁勋:
对。是的,有点疯狂。这是一个整体。这就是我们发明的,这个庞大的计算基础设施,整个星球都在与我们合作。它融入了任何地方。你可以通过戴尔销售它,也可以通过惠普销售它。它托管在云端。它无处不在,无处不在。人们现在在机器人系统中使用它,机器人和人类机器人,它们在自动驾驶汽车中。它们在架构上都是兼容的。相当疯狂。
Brad Gerstner:
这太疯狂了。
黄仁勋:
我不想让你留下我没有回答问题的印象。事实上,我回答了。当我们真正分层基础时,我的意思是思考的方式。我们只是在做一些不同的事情。是的,作为一家公司,我们希望了解情况,我对公司和生态系统周围的一切都非常了解,对吗?
我知道所有人都在做其他事情,他们在做什么。有时这对我们是不利的,有时不是。我非常清楚这一点,但这并没有改变公司的目标。是的,公司的唯一目标是构建一个可以无处不在的平台架构。这就是我们的目标。
我们不会试图从任何人那里夺取任何份额。英伟达是做市商,而不是份额获取者。如果你看看我们公司没有展示的幻灯片,你会发现这家公司没有一天谈论市场份额,内部也没有。我们谈论的都是我们如何创造下一个东西?
我们可以在这个飞轮中解决的下一个问题是什么?我们如何才能更好地为人们服务?我们如何将过去需要大约一年时间的飞轮缩短到大约一个月?是的。那光速是多少?不是吗?
所以我们在考虑所有这些不同的事情,但有一件事我们不会,我们不会,我们对所有事情都了如指掌,但我们确信我们的使命是非常独特的。唯一的问题是这个使命是否必要。这有意义吗?所有公司,所有伟大的公司都应该把这个作为核心。这是关于你在做什么?
当然。唯一的问题是,它有必要吗?它有价值吗?对。它有影响力吗?它对人们有帮助吗?我确信你是一名开发人员,你是一家生成式AI初创公司,你即将决定如何成为一家公司。
你不必做出的一个选择是我支持哪一款 A6?如果你只支持CUDA,你可以去任何地方。你以后总是可以改变主意的。但我们是通往AI世界的入口,不是吗?
一旦你决定加入我们的平台,其他的决定你都可以推迟。你以后可以随时构建自己的基础。我们并不反对。我们不会因此而生气。当我与所有GCP、GCP Azure 合作时,我们会提前几年向他们展示我们的路线图。
他们没有向我们展示他们的基本路线图,而且这从未冒犯过我们。这有道理吗?我们创造,我们处于一个。如果你有一个唯一的目标,你的目标有意义,你的使命对你和其他人来说都是珍贵的,那么你可以透明。请注意,我的路线图在 GTC 上是透明的。我的路线图对我们在 Azure、AWS 和其他公司的朋友来说更深入。我们做任何这些事情都没有问题,即使他们正在构建自己的资产。
Brad Gerstner:
我认为,当人们观察业务时,您最近表示对Blackwell的需求非常疯狂。您说,工作中最困难的部分之一就是在世界缺乏您能够生产和提供的计算能力的情况下,用情感工具对人们说“不”。但批评者说了这些。稍等片刻。他们说这就像2000年的思科一样,我们过度建设光纤。这将是繁荣与萧条的交替。我想到23年初我们吃饭的时候。23年1月的那顿晚餐上,英伟达的预测是,2023年的收入将达到260亿美元。你做到了600亿美元。
黄仁勋:
就让事实真相大白吧。这是世界历史上最大的预测失败。对。我们至少可以承认。
GPU在AI计算中扮演着越来越重要的角色
Brad Gerstner:
那是,那是我们在11月22日非常兴奋,因为我们有来自Inflection的Mustafa这样的人,而没有来自Character的人来我们办公室谈论投资他们的公司。他们说,好吧,如果你不能投资我们的公司,那就买英伟达,因为世界上每个人都在试图获得英伟达芯片来构建这些将改变世界的应用程序。当然,寒武纪时刻发生在ChatGPT上。尽管如此,这25位分析师仍然专注于加密货币赢家,以至于他们无法想象世界上正在发生的事情。所以最终规模更大了。用非常通俗的英语来说,对Blackwell的需求是疯狂的,而且只要你能,只要你能预见,它就会一直这样下去。当然,未来是未知的,不可知的。但为什么批评者会错得这么离谱,认为这不会像思科在2000年那样过度建设。
黄仁勋:
思考未来的最佳方式是从第一原则出发,对吗?好的,那么,对于问题,我们正在做的事情的第一原则是什么?第一,我们在做什么?我们正在做的第一件事就是重新发明计算,不是吗?我们刚才说过,未来计算的方式将是高度机器学习的。是的,高度机器学习的。好的,几乎我们所做的一切,几乎每一个应用程序,Word、Excel、Powerpoint、Photoshop、Premier,AutoCAD,你最喜欢的应用程序都是手工设计的。我向你保证,未来它将高度机器学习。对吧?所以所有这些工具都会如此,最重要的是,你会有机器,代理来帮助你使用它们。好的。所以现在我们知道这是事实。对吧?我们已经重新发明了计算。我们不会回头了。整个计算技术堆栈都在被重新发明。好的。既然我们已经做到了这一点,我们说过软件会有所不同。软件能写的东西会有所不同。我们使用软件的方式也会有所不同。所以现在让我们承认这一点。所以这些就是我现在的基本事实。是的。
现在的问题是会发生什么?让我们回顾一下过去的家庭计算。过去的计算机投入了1万亿美元。我们看看,只要打开门,看看数据中心,看看它。这些计算机是你想要的未来吗?答案是否定的。你那里有所有这些CPU。我们知道它能做什么,不能做什么。我们只知道,我们有1万亿美元需要现代化的数据中心。所以现在,在我们说话的时候,如果我们要在未来四五年内对这些旧东西进行现代化改造。这不算不合理。
所以我们有一个趋势,你正在与那些必须对其进行现代化改造的人进行交谈。是的,他们正在GPU上对其进行现代化改造。就是这样。
我们再做一次测试。你有500亿美元的资本支出。你喜欢花选项A,选项B,为未来建立资本支出,对吗?
或者像过去一样建立资本支出,现在你已经拥有了过去的资本支出,对吗?是的,对。它就在那里。反正也没有好转多少。莫尔斯定律基本结束了。那为什么要重建它呢?
我们只拿出500亿美元,投入生成式AI,对吗?所以现在你的公司变得更好了。对吗?现在你会投入这500亿美元中的多少?好吧,我会投入500亿美元的100%,因为我已经有了四年的基础设施,这是过去的。
所以现在你只是,我只是从某人从第一原理思考的角度来推理,这就是他们正在做的事情。聪明的人在做聪明的事情。现在,第二部分是这样的。那么我们就有价值一万亿美元的产能。去吧,比尔。
价值数万亿美元的基础设施。大概是1500亿美元。好的。所以我们有1万亿美元的基础设施需要在未来四五年内建设。好吧,我们观察到的第二件事是软件的编写方式不同,但软件的使用方式也不同。
未来,我们会有代理。我们公司会有数字员工。在你的收件箱里,你会看到这些低矮的面孔上的小点。未来,事情意味着AIS的低矮图标。对吧?我会把这些发给他们。
我不再用C++编程电脑了,我要用提示来编程AI。对吧?现在,这和我今天早上跟我聊天没什么不同。
我来这里之前写了很多电子邮件。我当然在提示我的团队。我会描述背景,描述我所知道的基本限制,描述他们的任务。我会留下足够的空间,我会给出足够的方向,让他们明白我需要什么。我想尽可能清楚地说明结果应该是什么,但我留下了足够的模糊空间,一点创意空间,这样他们就可以给我惊喜。
对吧?这和我今天提示AI没什么不同。是的,这正是我提出AI的方式。因此,我们将要现代化的基础设施之上,将会有一个新的基础设施。这个新的基础设施将是操作这些数字人的AI工厂,它们将全天候运行。
我们将为世界各地的所有公司提供这些设备。我们将在工厂中拥有它们,我们将在自主系统中拥有它们。对吗?所以有一整层计算结构。这一整层我称之为AI工厂,世界必须制造,但今天根本不存在。
所以问题是,这有多大。目前还不知道。可能有几万亿美元。我知道现在的情况,但当我们坐在这里建造时,美妙之处在于,这个新数据中心的现代化架构和AI工厂的架构是一样的。这是一件好事。
Brad Gerstner:
您能否说清楚,您有一万亿的旧东西。您必须进行现代化。您至少有一万亿的新AI工作负载即将到来。是的,您今年的收入将达到1250亿美元。曾经有人告诉过你,这家公司的市值永远不会超过10亿美元。当你今天坐在这里时,有什么理由吗?对,如果你在数万亿的Tam中只有1250亿美元,那么你将来的收入将不会是现在的2倍或3倍。你的收入没有增长有什么原因吗?没有。
黄仁勋:
正如你所知,并不是所有事情都如此,公司只受鱼塘大小的限制,金鱼池只能这么大。所以问题是,我们的鱼塘是什么?我们的池塘是什么?这需要很多想象力,这就是为什么做市商在不创建新鱼塘的情况下考虑未来的原因。回顾过去并试图夺取市场份额很难弄清楚这一点。对。份额获取者只能这么大。当然。做市商可以非常大。当然。
所以,我认为我们公司拥有的好运是,从公司成立之初,我们就必须创造市场,才能在其中畅游。当时人们没有意识到这一点,但现在人们已经意识到了,但我们处于创造3D游戏PC市场的起点。我们基本上发明了这个市场,以及所有的生态系统和显卡生态系统,我们发明了这一切。因此,需要发明一个新的市场,以便以后为其服务,这对我们来说是一件非常舒服的事情。
黄仁勋:我为OpenAI的成功感到高兴
Brad Gerstner:
众所周知,OpenAI 本周以 1500 亿美元的估值筹集了 65 亿美元。我们都参与了。
黄仁勋:
是的,真的为他们感到高兴,真的很高兴他们走到了一起。是的,他们做了一件伟大的事情,团队也做得很好。
Brad Gerstner:
据报道,他们今年的收入或营业收入将达到50亿美元左右,明年可能会达到100亿美元。如果你看看今天的业务,它的收入大约是谷歌首次公开募股时的两倍。他们有2.5亿,是的,每周平均用户数为2.5亿,我们估计这是谷歌首次公开募股时的两倍。如果你看看这家公司的市盈率,如果你相信明年会有100亿美元,那么它大约是预期收入的15倍,也就是谷歌和Meta在首次公开募股时的市盈率。想象一家22个月前收入为零、每周平均用户数为零的公司。
跟我们谈谈OpenAI作为合作伙伴对你的重要性,以及OpenAI作为推动公众对AI的认识和使用的力量。
黄仁勋:
好吧,这是我们这个时代最重要的公司之一,一家追求AGI愿景的纯AI公司。不管它的定义是什么。我几乎不认为定义是什么完全重要,我也不认为时机很重要。我知道的一件事是,AI将随着时间的推移拥有能力路线图。而这个能力路线图将非常壮观、奇特。在此过程中,早在它达到任何人对AGI的定义之前,我们就会充分利用它。
你所要做的就是,现在,在我们说话的时候,去和数字生物学家、气候技术研究人员、材料研究人员、物理科学家、天体物理学家、量子化学家交谈。你可以去问视频游戏设计师、制造工程师、机器人专家。选你最喜欢的。无论你想选择哪个行业,你都要深入研究,和重要的人交谈,问他们,AI是否彻底改变了你的工作方式。你收集这些数据点,然后回头问问自己,你想有多怀疑。因为他们不是在谈论AI的概念优势。他们现在谈论的是将来使用AI。现在,农业技术、材料技术、气候技术,你选择你的技术,你选择你的科学领域。它们正在进步。AI正在帮助他们推进他们的工作。
现在,正如我们所说,每个行业、每个公司、每个高度、每所大学。难以置信。对吧?绝对是这样。我会以某种方式改变商业。我们知道这一点。我的意思是,我们知道它是如此切实。
今天。它正在发生。它正在发生。所以,我认为ChatGPT 的觉醒引发了它,这完全令人难以置信。我喜欢他们的速度和他们推动这一领域发展的独特目标,这真的很重要。
Brad Gerstner:
他们建立了经济引擎,可以为下一个模型前沿提供资金。我认为硅谷正在形成一种共识,即整个模型层、商品化的 Llama 使许多人能够以非常低廉的价格建立模型。所以早期我们有很多模型公司。这些,特征、语调和凝聚力都列在清单上。
很多人质疑这些公司是否能够在经济引擎上建立逃逸速度,从而继续资助下一代。我自己的感觉是,这就是你看到整合的原因。OpenAI 显然达到了速度。他们可以资助自己的未来。我不清楚其他许多公司是否能做到。这是对模型层现状的公平评估吗?我们将像在许多其他市场一样,将这种整合到能够负担得起的市场领导者身上,他们拥有经济引擎和应用程序,可以让他们继续投资。
仅仅拥有强大的GPU并不能保证一家公司在AI领域取得成功
黄仁勋:
首先,模型和AI之间存在根本区别。是的。模型是必不可少的要素。对。对于AI来说,它是必要但不充分的。对。所以,AI是一种能力,但用于什么,对吗?那么它的应用是什么?对吗?软件驾驶汽车的AI与人类机器人的AI有关,但并不相同,后者与聊天机器人的AI有关,但并不相同。
所以你必须了解分类法。是的,堆栈的分类法。在堆栈的每一层,都会有机会,但不是堆栈的每一层都为每个人提供无限的机会。
现在,我刚刚说了一句话,你所做的就是用GPU替换模型这个词。事实上,这是我们公司 32 年前的一个伟大观察,即 GPU、图形芯片或GPU与加速计算之间存在根本区别。加速计算与我们在 AI 基础设施方面所做的工作不同。它们是相关的,但并不完全相同。它们是相互叠加的。它们并不完全相同。而且这些抽象层中的每一个都需要完全不同的技能。
真正擅长构建GPU的人不知道如何成为一家加速计算公司。我可以举例说明,有很多人制造 GPU。我不知道哪一个是后来的,我们发明了 GPU,但你知道我们不是,我们不是今天唯一一家制造GPU的公司,对吗?到处都有 GPU,但它们不是加速计算公司。有很多人这样做。他们的加速器可以进行应用程序加速,但这与加速计算公司不同。例如,一个非常专业的AI应用程序,对吧,这可能是一件非常成功的事情,对吗?
Brad Gerstner:
这就是 MTIA(Mata自研的下一代AI加速芯片)。
黄仁勋:
对。但它可能不是那种带来影响力和能力的公司。所以你必须决定你想成为什么样的人。所有这些不同领域可能都有机会。但就像建立公司一样,你必须注意生态系统的变化以及随着时间的推移哪些东西会被商品化,认识到什么是功能,什么是产品,对,什么是公司。好的。我刚刚讲过,好吧,你可以用很多不同的方式来思考这个问题。
xAI和孟菲斯超级计算机集群已经到了“20万到30万个GPU集群的时代”
Brad Gerstner:
当然,有一家新进入者有钱、有智慧、有野心。那就是 xAI。是的,对。而且,有报道称你和 Larry Ellison(甲骨文创始人)和马斯克共进晚餐。他们说服你放弃 100000个H100芯片。他们去了孟菲斯,在几个月内就建立了一个大型连贯超级集群。
黄仁勋:
三点,不要划等号,好吗?是的,我和他们共进晚餐。
Brad Gerstner:
你认为他们有能力建立这个超级集群吗?有传言说他们想要另外十万个 H200,对吧,来扩大这个超级集群的规模。首先,跟我们谈谈 X 和他们的野心以及他们取得的成就,但同时,我们已经到了20万到30万个GPU集群的时代了吗?
黄仁勋:
答案是肯定的。然后首先,承认成就。从概念的那一刻到数据中心准备好让英伟达在那里安装我们的设备,再到我们启动它、连接好它并进行第一次训练的那一刻,这一切都值得。
黄仁勋:
好的。所以第一部分就是在这么短的时间内建造一个巨大的工厂,水冷、通电、获得许可,我的意思是,这就像超人一样。是的,据我所知,世界上只有一个人能做到这一点。我的意思是,马斯克对大型系统的工程和建设以及资源调配的理解是独一无二的。是的,这真是令人难以置信。当然,他的工程团队也很出色。我的意思是,软件团队很棒,网络团队很棒,基础设施团队很棒。马斯克对此深有体会。
从我们决定与工程团队、网络团队或基础设施计算团队、软件团队一起开始规划的那一刻起,所有的准备工作都提前了。然后所有的基础设施、所有的物流、当天运来的技术和设备数量、视频基础设施和计算基础设施,以及培训所需的所有技术,19 天都悬而未决,你想要什么吗?做了。
退一步想想,你知道 19 天是多少天吗?19 天是几周吗?对吧?如果你亲眼看看,技术的数量是令人难以置信的。所有的布线和网络,英伟达设备的网络与超大规模数据中心的网络非常不同。好的,一个节点需要多少根电线。计算机的背面全是电线,而将这一大堆技术和所有软件集成在一起,真是不可思议。
所以我认为马斯克和X团队所做的,我非常感激他承认我们与他一起进行的工程工作以及规划工作等等。但他们取得的成就是独一无二的,以前从未有过。只是从这个角度来看。十万个 GPU,作为一个集群,这很容易成为地球上最快的超级计算机。你建造的超级计算机通常需要三年的规划时间。然后他们交付设备,需要一年的时间才能让它们全部运转起来。是的,我们说的是 19 天。
Clark Tang:
英伟达的功劳是什么?
黄仁勋:
一切都已经正常运转了。是的,当然,还有一大堆 X 算法、X 框架、X 堆栈等等。我们说我们有大量逆向集成要做,但规划非常出色。只是预先规划。
大规模分布式计算是未来AI发展的重要方向
Brad Gerstner:
一端是正确的。马斯克是一端。是的,你,但你回答这个问题时一开始就说,是的,这里有 20到 30万个GPU集群。是的,对。这能扩展到 50万个吗?能扩展到 100 万个吗?你的产品需求是否取决于它扩展到 200 万个?
黄仁勋:
最后一部分是否定的。我的感觉是分布式训练必须有效。我的感觉是分布式计算将被发明。某种形式的联邦学习和分布式计算,异步分布式计算将被发现。
我对此非常热衷和乐观,当然,要意识到的是,缩放定律过去是关于预训练的。现在我们已经转向多模态,我们已经转向合成数据生成,后训练现在已经扩展得令人难以置信。合成数据生成、奖励系统、基于强化学习,然后现在推理缩放已经达到了顶峰。一个模型在回答你的答案之前已经进行了令人难以置信的 10000 次内部推理。
这可能并非不合理。它可能已经完成了树搜索。它可能已经在此基础上进行了强化学习。它可能,它可能已经进行了一些模拟,肯定做了很多反思,可能查找了一些数据,查看了一些信息,不是吗?所以他的背景可能相当大。我的意思是,这种类型的智能是。好吧,这就是我们所做的。这就是我们所做的。不是吗?因此,对于能力,这种扩展,我刚刚进行了计算,并将其与模型大小和计算大小每年 4 倍进行复合。
另一方面,需求在使用方面持续增长。我们认为我们需要数百万个GPU吗?毫无疑问。是的,现在这是肯定的。所以问题是,我们如何从数据中心的角度来构建它?这在很大程度上与数据中心是一次几千兆瓦还是一次 250 兆瓦有关。我的感觉是,你会同时得到两者。
Clark Tang:
我认为分析师总是关注当前的架构赌注,但我认为这次谈话中最大的收获之一是,你正在考虑整个生态系统和未来很多年。所以,因为英伟达只是在扩大或扩大规模,是为了满足未来的需求。这并不是说,你只能依赖一个拥有 50 万甚至一百万个GPU集群的世界。当分布式训练出现时,你就会编写软件来实现它。
黄仁勋:
我们七年前就开发了 Megatron。是的,这些大型训练任务的扩展会发生。所以我们发明了Megatron,所以,所有正在进行的模型并行性,所有分布式训练的突破和所有批处理以及所有这些东西都是因为我们做了早期的工作,现在我们正在为下一代做早期的工作。
AI改变了工作方式
Brad Gerstner:
那么我们来谈谈草莓和o1。我认为他们以o1命名很酷。这意味着招募世界上最优秀、最聪明的人,并将他们带到美国。我知道我们都对此充满热情。所以我喜欢这个想法,建立一个思考的模型,将我们带到下一个扩展智能的水平,对吧,这是对这样一个事实的致敬:正是这些通过移民来到美国的人,成就了我们,让我们成为现在的样子,将他们的集体智慧带到了美国。
黄仁勋:
当然。还有外星智慧。
Brad Gerstner:
当然。这是由我们的朋友 Noam Brown 带头的。推理时间推理作为扩展智能的全新载体有多重要,与仅仅构建更大的模型是分开的。
黄仁勋:
这是一件大事。这是一件大事。我认为,很多智能不能先验地完成。对。很多计算,甚至很多计算都不能重新排序。我的意思是,无序执行可以优先完成,很多事情只能在运行时完成。
所以,无论你是从计算机科学的角度还是从智能的角度来思考,太多的事情都需要背景。环境,对吧。还有质量,你正在寻找的答案类型。有时,一个快速的答案就足够了。这取决于答案的后果,影响。这取决于答案的使用性质。所以,有些答案,请花一个晚上,有些答案需要一周的时间。
是的。对吧?所以我完全可以想象我向我的AI发送一个提示,告诉它,考虑一晚。考虑一夜。不要马上告诉我。我希望你考虑一整晚,然后明天再告诉我。你对我最好的答案和理由是什么。所以,我认为从产品的角度来看,现在的质量,智能的细分。会有一次性的版本。当然。还有一些需要五分钟。
对吧?还有人类。所以如果你愿意的话,我们将成为一个庞大的员工群体。他们中有些是AI中的数字人,有些是生物人,我希望有些甚至是超级机器人。
Brad Gerstner:
我认为,从商业角度来看,这是一个被严重误解的事情。你刚刚描述了一家公司,它的产出量相当于一家拥有 15 万人的公司,但你只用 5 万人就做到了。没错。现在,你并没有说我要解雇所有员工。不。你仍在增加组织中的员工数量,但该组织的产出量将大幅增加。
黄仁勋:
这,这经常被误解。AI不是我。AI不会改变每一项工作。AI将对人们的工作方式产生巨大影响。让我们承认这一点。AI有潜力带来令人难以置信的好处。它也有潜力造成伤害。我们必须建立安全的AI。是的,让我们打好这个基础。是的。好的。
黄仁勋:
人们忽视的部分是,当公司使用AI提高生产力时,它很可能会表现为更好的收益或更好的增长,或两者兼而有之。当这种情况发生时,首席执行官的下一封电子邮件很可能不是裁员。
Brad Gerstner:
当然是公告,因为你在成长。
黄仁勋:
原因是我们有更多的想法,我们可以探索,我们需要人们帮助我们在自动化之前仔细考虑。所以自动化部分,AI可以帮助我们做到。显然,它也会帮助我们思考,但仍然需要我们去弄清楚我想解决什么问题。我们可以解决的问题有上万亿。那么,公司需要解决什么问题,选择这些想法,并找出自动化和扩展的方法。因此,随着我们变得更有生产力,我们将雇佣更多的人。人们忘记了这一点,如果你回到过去,显然我们今天的想法比 200 年前更多。这就是为什么 GDP 更大、就业人数更多的原因。尽管我们在底层疯狂地自动化。
Brad Gerstner:
这是这个时期的一个非常重要的点,我们正在进入一个几乎所有人类生产力、几乎所有人类繁荣都是自动化的副产品。过去 200 年的技术。我的意思是,你可以看看亚当·斯密和谢姆彼得的创造性破坏,你可以看看过去 200 年来人均 GDP 增长图表,现在它正在加速。
是的,这让我想到了这个问题。如果你看看 90 年代,我们美国的生产力增长率大约是每年 2.5% 到 3%,好吗?然后在 2010 年,它放缓到大约 1.8%。然后过去 10 年是生产力增长最慢的十年。所以这就是我们固定数量的劳动力和资本或产出量,实际上是有记录以来最慢的。
很多人都在争论这个原因。但如果世界真的像您所描述的那样,我们要利用和制造智能,那么我们是不是正处于人类生产力急剧扩张的边缘呢?
黄仁勋:
这是我们的希望。这是我们的希望。当然,我们生活在这个世界上,所以我们有直接的证据。
我们有直接的证据,要么是孤立的案例,要么是个别研究人员,他们能够利用AI以难以想象的超大规模探索科学。这就是生产力。百分百衡量生产力,或者我们正在以如此高的速度设计出如此令人难以置信的芯片。我们正在构建的芯片复杂性和计算机复杂性正在呈指数级增长,而公司的员工基础并不是衡量生产力的标准,对吧。
我们开发的软件越来越好,因为我们使用AI和超级计算机来帮助我们。员工人数几乎呈线性增长。生产力的另一个体现。
所以,我可以深入研究,我可以抽样检查很多不同的行业。我可以亲自检查。是的,你说得对。商业。没错。
所以我可以,当然,你不能,我们不能,我们可能会过度拟合。但它的艺术性当然是概括我们所观察到的是什么,以及这是否会在其他行业中体现出来。
毫无疑问,AI是世界上已知的最有价值的商品。现在我们要大规模生产它。我们,我们,我们所有人都必须擅长,如果你被这些AI包围,它们做得非常好,比你好得多,会发生什么。当我回想起来,这就是我的生活。我有 60 个直接下属。
他们在自己的领域是世界一流的,而且他们做得比我好。比我好很多。我与他们互动毫无困难,我也能毫不费力地设计他们。我也能毫不费力地编程他们。所以我认为人们要学习的是,他们都将成为 CEO。
他们都将成为 AI 代理的 CEO。他们有能力拥有创造力,嗯,一些知识,以及如何推理,如何分解问题,这样你就可以对这些 AI 进行编程,以帮助你实现像我一样的目标。这就是经营公司。
AI安全需要多方共同努力
Brad Gerstner:
现在。你提到了一些东西,那就是不协调,安全的AI。你提到了中东正在发生的悲剧。我们拥有很多自主权,而且很多AI正在世界各地使用。那么让我们来谈谈坏人、安全AI、与华盛顿的协调。你今天感觉如何?我们走在正确的道路上吗?我们有足够的协调水平吗?我认为马克·扎克伯格曾说过,我们打败坏AI的方法是让好AI变得更好。你如何描述你对我们如何确保这对人类产生积极的净收益的看法,而不是让我们生活在这个反乌托邦的世界里。
黄仁勋:
关于安全的讨论确实很重要,也很好。是的,抽象的观点,将AI视为一个巨大的神经元网络的概念性观点,并不是那么好,对吧。好的。原因是,众所周知,AI和大型语言模型是相关的,而不是一回事。我认为有很多正在做的事情非常好。第一,开源模型,以便整个研究社区、每个行业和每个公司都可以参与AI,是的,并学习如何利用这种能力进行应用。非常好。
第二,人们低估了致力于发明AI以保证AI安全的技术数量。是的,AI可以整理数据、携带信息、进行训练,创建AI是为了协调AI,生成合成数据以扩展AI的知识,使其减少幻觉。所有被创建用于矢量化或图形化或任何其他用于通知 AI、保护 AI 以监控其他 AI 的 AI 系统,这些 AI 系统创建的安全 AI 正在受到赞扬,对吗?
Brad Gerstner:
那么我们已经建立了。
黄仁勋:
那。我们正在建立这一切。是的,在整个行业中,方法论、红队、流程、模型卡、评估系统、基准测试系统,所有这些,所有这些正在以令人难以置信的速度构建的线束。我想知道,庆祝。你们明白吗?是的,你知道。
Brad Gerstner:
而且,没有,没有,没有政府法规说你必须这样做。是的,今天在这个领域中构建这些AI的参与者正在认真对待这些关键问题,并围绕最佳实践进行协调。没错。
黄仁勋:
所以这还没有得到充分重视,也没有得到充分理解。是的。需要有人,需要,每个人都需要开始谈论AI,这是一个AI系统,是一个工程系统,是经过精心设计的,从第一原则构建的,经过充分测试的,等等。记住,AI是一种可以应用的能力。我不认为有必要对重要技术进行监管,但也不要过度监管,以至于有些监管要针对大多数应用进行。所有已经监管技术应用的不同生态系统现在都必须监管现在融入AI的技术应用。
所以,我认为,不要误解,不要忽视世界上为AI而必须启动的大量法规。不要只依赖一个宇宙银河系。AI委员会可能能够做到这一点,因为所有这些不同的机构的成立都是有原因的。所有这些不同的监管机构的成立都是有原因的。回到最初的原则,我会。
开源与不开源的对立是错误的
Brad Gerstner:
你们推出了一个非常重要、非常庞大、非常强大的开源模型。
黄仁勋:
Nemotron。
Brad Gerstner:
是的,很明显,Meta为开源做出了重大贡献。我发现当我阅读 Twitter 时,有很多关于开放与封闭的讨论。您如何看待开源,您自己的开源模型,能否跟上前沿?这是第一个问题。第二个问题是,您知道,拥有开源模型和闭源模型,它们为商业运营提供动力,这是您对未来的看法吗?这两件事是否为安全创造了健康的张力?
黄仁勋:
开源与闭源与安全有关,但不仅仅是安全。例如,拥有闭源模型绝对没有错,它们是维持创新所必需的经济模型的引擎。好吧,我完全赞成这一点。我认为封闭与开放的对立是错误的。
因为开放是许多行业得以激活的必要条件,现在,如果我们没有开源,所有这些不同的科学领域如何能够激活,激活AI。因为他们必须开发自己的特定领域的AI,他们必须使用开源模型开发自己的AI,创建特定领域的AI。它们是相关的,不是,再说一遍,不一样。仅仅因为你有一个开源模型并不意味着你就有AI。所以你必须有那个开源模型来创建AI。所以金融服务、医疗保健、交通运输,这些行业、科学领域的列表现在已经因为开源而得以实现。
Brad Gerstner:
难以置信。你看到对你的开源模型的需求很大吗?
黄仁勋:
我们的开源模型?首先。Llama 下载。显然,是的,马克和他们所做的工作令人难以置信。超乎想象。是的。它完全激活并吸引了每一个行业、每一个科学领域。
好的,当然。我们做 Nemotron的原因是为了生成合成数据。直观地说,一个AI会以某种方式坐在那里循环并生成数据来学习自己。这听起来很脆弱。你能绕这个无限循环多少次,这个循环值得怀疑。然而,我脑海中的画面有点像你找了一个超级聪明的人,把他关进一个软垫房间,关上门大约一个月,出来的可能不是一个更聪明的人。所以,所以,但你可以让两三个人坐在一起,我们有不同的AI,我们有不同的知识分布,我们可以来回进行质量保证。我们三个人都可以变得更聪明。
因此,你可以让 AI 模型交换、互动、来回传递、讨论强化学习、合成数据生成等,这种想法在直觉上是有意义的,可以提出建议并有意义。因此,我们的模型Nemotron 350B 是是世界上最好的奖励系统模型。因此,这是最好的批评。
有趣。这是一个非常棒的模型,可以增强其他人的模型。因此,无论其他人的模型有多好,我都会建议使用Nemotron 340B 来增强和改进它。我们已经看到 Llama 变得更好,使所有其他模型都变得更好。
Brad Gerstner:
作为在 2016 年交付 DGX1 的人,这真的是一段不可思议的旅程。您的旅程既不可思议又令人难以置信。就像只是在早期幸存下来一样非常了不起。您在 2016 年交付了第一台 DGX1。我们在 2022 年迎来了寒武纪时刻。
所以我要问您一个我经常想得到答案的问题,那就是,在 60 个直接下属的领导下,您能维持现在的工作多久?您无处不在。您正在推动这场革命。您玩得开心吗?还有什么其他您更愿意做的事情吗?
黄仁勋:
这是关于过去一个半小时的问题。答案是“我很享受”。很棒的时光。我无法想象我更愿意做的其他事情。让我们看看。我认为,我认为不应该给人留下我们的工作总是充满乐趣的印象。我的工作并不总是充满乐趣,我也不指望它总是充满乐趣。我曾经期望它总是充满乐趣吗?我认为它总是很重要。
是的,我不会太严肃地对待自己。我非常认真地对待工作。我非常认真地对待我们的责任。我非常认真地对待我们的贡献和我们的时刻。
这总是充满乐趣吗?不。但我一直都喜欢它吗?是的。就像所有的事情一样,无论是家庭、朋友还是孩子。它总是充满乐趣吗?不。我们总是喜欢它吗?绝对。
所以我认为,我,我能做多久?真正的问题是,我能保持相关性多久?这才是最重要的,这个问题的答案只能是我将如何继续学习?今天我更加乐观。我这么说不仅仅是因为我们今天的主题。我对我说相关性和继续学习的能力更加乐观,因为AI。我每天都在用它,我不知道,但我相信你们都在用。我几乎每天都在用它。
我没有一个研究不涉及AI。是的,没有一个问题,即使我知道答案,我也会用AI再三核对。是的,令人惊讶的是,我接下来问的两三个问题,揭示了一些我不知道的东西。你选择你的主题。你选择你的主题。我认为AI是一个导师。
AI 是助手,AI 是合作伙伴,可以与我一起集思广益,检查我的工作,伙计们,这完全是革命性的。我是一名信息工作者。我输出的是信息。所以我认为他们对社会的贡献非常了不起。所以我认为,如果是这样的话,如果我能保持这种相关性,继续做出贡献,我知道这项工作足够重要,是的,我想继续追求它,我的生活质量令人难以置信。所以我会。
Brad Gerstner:
说我无法想象你和我在这个领域已经工作了几十年,我无法想象错过这一刻。这是我们职业生涯中最重要的时刻。我们非常感谢这种合作关系。
黄仁勋:
怀念未来十年。
Brad Gerstner:
思想伙伴关系。是的,你让事情变得更聪明。谢谢你。我认为你作为领导层的一部分真的很重要,对吧,这将乐观而安全地引领这一切向前发展。所以谢谢你。
黄仁勋:
和你们在一起。真的很开心。真的。谢谢。