诺奖+图灵奖双得主Hinton对话陈宁:十年后AI芯片成本或将暴跌百倍

作者:拓荒牛 分类:默认分类 时间:2025-12-04 10:10
优府科技服务(北京)有限公司 - 网络运营部

2025年堪称人类科技史的"AI黄金时刻”。

当英伟达Blackwell芯片以30倍性能跃升刷新算力天花板,OpenAI携Sora重构视频生成逻辑,谷歌Gemini Live实现实时多模态交互时,这场发端于北美西海岸的AI革命引领着全球创新浪潮。

从年初DeepSeek火爆全球开始,当阿里千问不断刷新装机速度,字节豆包以1.72亿月活持续渗透之时,模型、算力和场景在神州大地不断突破,硬件、生态、应用彻底迎来“大爆炸”。

这场由中美领衔的AI大戏,颇有“你方唱罢我登场”之势。

面对日新月异的技术变革,有狂欢,也有冷静。有惊艳,亦有风险。

在“效率革命”与“伦理平衡”的十字路口,一场横跨太平洋的岁末对话给我们带来许多启发和思考。

2025GIS全球创新展暨全球创新领袖峰会上,全球科技界传奇人物,2024年诺贝尔物理学奖获得者,2018年图灵奖得主,AI教父杰弗里·辛顿先生与云天励飞董事长兼CEO陈宁展开了一场跨越时空的对话,以下是双方核心观点呈现。

杰弗里·辛顿观点集锦

1、学科交叉是破解复杂问题的金钥匙,神经网络的突破印证了跨领域融合的价值。这种价值,能为AI研究提供更全面的解题思路。

2、数据规模决定算法成败,小数据时代SVM占优,大数据时代神经网络终将崛起。

3、数字与模拟芯片集成、类器官生物计算具备潜在优势,但目前仍处于早期阶段,要实现人脑级模拟计算,硬件创新需与算法突破协同,这还有漫长的技术探索之路要走。

4、AI生态的健康发展需平衡基础研发与应用落地:只做基础研究不落地会华而不实,只追短期应用忽视底层创新会透支未来竞争力,真正具备全球影响力的 AI 生态,必然是“基础理论+专用算力+大规模场景”相互强化的结果。

5、人工智能风险防控应与技术研发同步推进,预见性治理比事后补救更重要。

陈宁观点集锦

1、我们不仅需要更好的AI,还需要更高效,成本更低的AI。AI for Good应当包含两重含义:AI向善和普惠AI。

2、AI的广泛应用在全球正呈现出爆发式增长趋势。中国正在不断探索和深挖更多的AI场景。我们预测到2027年,AI应用和智能体的普及率将超过70%。到2030年,这个比例会超过90%。

3、作为AI芯片公司,云天励飞推动AI普惠的路径是走“推理优先架构”路线,研发NPU,下一代将推出GPNPU架构。

4、随着各类AI应用大爆发,到2030年,推理芯片可能将占整个AI芯片市场的比例高达80%。。

5、未来5年,AI将重新定义所有数字应用、所有硬件(包括消费电子以及企业级电子产品)。随着智能体能力持续渗透,AI 处理芯片将被广泛嵌入眼镜、耳机、手机、笔记本、家电以及各类企业设备之中,像水、电、燃气一样,无处不在、按需取用。我们相信,AI智能体可以帮助我们生活变得更加高效与美好。

6、云天励飞曾向ITU提议制定全球推理计算网络的标准,希望未来全球都能够以低成本享受到AI发展红利。

以下是对话实录,对话由硅谷著名计算机科学家,硅谷高创会大会主席吴军先生主持。

吴军:辛顿教授好,我们之前在谷歌做过一段时间的同事。印象中,您本科没有读计算机科学,而是读的神经科学工程和艺术?

杰弗里·辛顿:事实上,我学的是心理学、生理学和哲学。我最开始完全不懂计算机科学,如果你让我去做一个管线设计我可能完全没有办法完成,但是我会提出一个解决方案和相关建议。

在中学时期,我就对生理学特别感兴趣,我想了解大脑是如何运作的。我后来学了人工智能和神经科学,这些不同的学科都是去为了解决某个具体问题,所以说如果我们遇到一个特别难的,真正棘手的问题,有跨学科的知识会帮助我们更好的解决问题。甚至后来,我还专门学习了统计物理学。

吴军:上世纪90年代初,那时候神经科学是炙手可热的领域,但10年之后,就到了神经科学的冬天。对你来说,是什么让你相信现在还在一条正确的道路上呢?在人工智能寒冬的时候,为什么还会坚持走这条道路?

杰弗里·辛顿:对我来说,最关键不是我到底要做出什么样的技术,而是我要了解大脑是如何学习的。最终发现神经网络的时候,我们发现在拥有数据时,人的表现甚至不如SVM(Support Vector Machine, 支持向量机)。但最后事实证明,只有在数据集较小时,支持向量机的表现才会优于神经网络。一旦有了海量数据,神经网络的价值一下就凸显了出来。

吴军:就像你之前所说,我们当前取得了很多进展,包括大语言模型等等。现在如果要训练ChatGPT、Gemini等模型的话,可能要花费数十亿美金成本。你刚提到可以用模拟设施来解决这个问题。正好我们今天现场请到了AI芯片方面的产业界专家——云天励飞董事长兼CEO陈宁先生。

陈博士,可以介绍下你的研究以及对此的看法?

陈宁:我在2014年创立云天励飞,创业11年来,云天励飞致力于设计更高效的AI芯片,这是我们的使命。我们的NPU和谷歌的TPU很相似,我们知道TPUv7,与同性能的GPU相比,成本可以降低30%,在特定的场景中甚至可以降低更多,我们做的NPU同样能够在推理中更高效、低成本地完成任务。

刚才辛顿教授也提到,AI很棒,我们需要更好的训练AI,这一点我完全同意。但我认为,我们不仅需要更好的AI,还需要更高效,成本更低的AI。

AI for Good是一个普遍讨论的议题,但我认为背后应该有两重含义:AI向善和普惠AI。我们希望AI不仅智能而且向善,能够惠及每一个人。

如今大模型的训练高度依赖昂贵的GPU。但进入2025年以来,AI已经融入了我们每天的生活,如果AI是昂贵的商品,那么它就无法普及。因此我认为,未来衡量AI应当加入一个关键指标应该:每瓦特每美元的推理能力,即单位资金和单位能耗下,AI究竟能完成多少有效工作。只有降低了AI的成本,AI才能将服务更广泛的人群、发挥更大的价值,比如在农业农村领域,在医疗领域、在教育领域等等。

中国的AI政策也一直强调开放AI应用场景,致力于让更广泛的人群使用AI技术。我们预测到2027年,AI应用和智能体的普及率将超过70%,再往后到2030年,这个比例会超过90%。

AI应用的普惠本身也会为AI发展带来促进。AI大规模应用将产生海量的真实世界反馈数据,而这些反馈对于训练更智能、行为规范、更完善的AI系统至关重要。

为了推动AI普惠,在产品方向,我们设计了5代NPU,最新一代正在研发GPNPU,希望为整个行业提供更具成本效益的AI芯片方案。

虽然现在主流的应用还是GPU,但我们知道GPU设计之初是为了图形渲染,而不是AI计算。而NPU、TPU天生就是为向量、矩阵与张量运算而设计,因此在 AI 计算上具有更高效率。

量化对比来看,未来NPU比GPU在推理任务方面至少10倍甚至更高的改善空间。无论是成本还是功耗,都要比GPU好得多。

吴军:陈博你是行业专家,而辛顿教授则是理论教授,你有什么问题想问辛顿教授?

陈宁:以上海为代表的长三角地区,有很多研究机构都在做大语言模型。在粤港澳大湾区,香港和深圳被称为全球硬件中心,这里有非常多初创企业,在设计原生AI硬件。在你看来,AI时代长三角和粤港澳大湾区,哪个更能展示出明显的优势?

杰弗里·辛顿:在中国,以长三角为中心的区域,聚集了非常多的AI研发企业。相比较而言,长三角更重视底层技术研发。而大湾区则更关注AI应用。整体来讲,基础研发与落地应用都非常重要。如果只做基础研究、不落地应用,会显得华而不实;如果只追逐短期应用、不推动底层架构与理念演进,则会透支未来竞争力。真正具备全球影响力的 AI 生态,必然是“基础理论+专用算力+大规模场景”相互强化的结果。

吴军:陈博士此前提到英伟达市值已经接近5万亿美元,营收也大幅度的增长,在5年之后,或许Token的价格会大幅降低,到那时候芯片市场占到整个市场的20%,也就是整个AI市场的20%。

从整个半导体的市场来算,芯片的占比也是比较低的,你预计未来3-5年这个市场规模有多大?会对整个行业产生多大的影响?

陈宁:目前,在2025年,人工智能仍然非常专注于训练大型模型,但每个人现在都在谈论agent和推理应用。为了支持这些AI应用,我们将需要比训练更多的推理基础设施。

因此,我预计在接下来推理芯片市场的重要性,将逐渐超过训练市场。到2035年,甚至推理可能占整个人工智能芯片市场的80%左右。

未来5年,AI将重新定义所有数字应用、所有硬件(包括消费电子以及企业级电子产品)。随着智能体能力持续渗透,AI 处理芯片将被广泛嵌入眼镜、耳机、手机、笔记本、家电以及各类企业设备之中,像水、电、燃气一样,无处不在、按需取用。我们相信,AI智能体可以帮助我们生活变得更加高效与美好。

此前,我向国际电联(ITU)也提出建议,希望推动建立全球推理计算网络的标准,让不同国家和地区都能在同一张互联互通的推理网络上共享能力,尤其在医疗与教育等关乎民生的领域真正实现“AI for All”。

陈宁:最后一个问题想问一下辛顿教授,如果你有一台时光机,在知道 AI当前发展情况和风险的情况下,回到2012年,你还会去发表那篇AlexNet论文吗?

杰弗里·辛顿:其实我很难回答这个问题,我觉得该发生的还是会发生,我还是可能会发布它。但如果我真的能够回到那个时候,我可能想做的就是从那个时候开始重视人工智能带来的一系列的风险。

吴军:再次感谢陈博士、辛顿先生。

当前用户暂时关闭评论 或尚未登录,请先 登录注册
暂无留言
版权所有:拓荒族 晋ICP备17002471号-6