谷歌DeepMind CEO哈萨比斯:规模定律是走向通用人工智能的关键
扫一扫
分享文章到微信

扫一扫
关注鹿财经网微信公众号
12 月 8 日消息,据《商业内幕》昨天报道,谷歌 DeepMind CEO 德米斯・哈萨比斯(Demis Hassabis)最近表示,扩大 AI 模型规模是实现通用人工智能(AGI)的关键。
据报道,硅谷各界人士一直在进行一场持续的争论:规模定律(scaling laws)究竟能让 AI 走向何方?
刚刚凭借 Gemini 3 获得广泛赞誉的谷歌 DeepMind CEO 德米斯・哈萨比斯在上周表示:“我们必须把当前 AI 的规模化推向极致,它最终会成为通用人工智能的关键组成部分,甚至有可能构成整个通用人工智能系统”。
注:通用人工智能(AGI)指的是具备与人类同等智能或超越普通人类的人工智能,能表现正常人类所具有的所有智能行为,目前仍处于理论状态,全球领先的 AI 公司都在为此投入,争夺头牌。
而规模定律(scaling laws)指的是机器学习领域描述性能与模型规模、训练数据集大小及计算资源之间可预测关系的经验性规律,被 AI 业界视为大模型预训练的核心原则,可以用“模型越大 + 数据越多训练越久=越聪明”来理解。
回到正文,哈萨比斯还认为,只靠规模定律或许能让 AI 走向 AGI,但他也怀疑最终可能需要一到两个额外的突破才能达成 AGI。
但规模定律并非完美无缺,毕竟公开的数据总量是有限的,而且增加算力意味着要建设更多数据中心,会导致训练成本越来越高昂,且对自然环境造成压力。一些关注 AI 的专家也担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。
与此同时,硅谷也出现了另一派声音,其中前 Meta 首席 AI 科学家、近期宣布离职创业的 Yann LeCun(杨立昆)就认为,AI 行业不能只靠规模定律。
他今年 4 月在新加坡国立大学(NUS)表示:“大多数真正有趣的问题在规模定律下表现得极其糟糕,你不能简单地认为堆数据和堆算力就能产出更聪明的 AI”。
据悉,他离开 Meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,可以被视为大语言模型的替代方案。(潞源)
投稿邮箱:lukejiwang@163.com 详情访问鹿财经网:http://www.lucaijing.com.cn
AI 的尽头是核电:黄仁勋预言 7 年内英伟达、谷
IT之家 12 月 5 日消息,在《乔・罗根体验》(The Joe Rogan Experience)第 2422 期播客
AI科技2025-12-06
Anthropic CEO 暗讽谷歌、OpenAI:我们专心搞企业 A
12 月 4 日消息,Anthropic 首席执行官达里奥・阿莫代伊(Dario Amodei)近日对 Ope
AI科技2025-12-04





















