杨立昆:自回归大模型是AI最大骗局
Meta首席AI科学家、图灵奖得主杨立昆近日发表万字长文,直指自回归大语言模型(LLM)是人工智能领域最大的骗局,并列举了三个关键原因。他认为,当前的AI技术,即使是像GPT-4这样强大的模型,也远未达到人类水平的智能,更谈不上通用人工智能(AGI)。这场演讲如同在平静的AI领域投下了一颗深水炸弹,引发了广泛的讨论和争议。
自回归模型的三宗罪:指数级幻觉、算力黑洞、莫拉维克悖论
杨立昆首先指出,自回归模型的核心机制是基于前文预测下一个词(Token),这种机制存在着严重的缺陷。第一,指数级幻觉:每个预测的微小误差都会随着文本生成呈指数级爆炸,导致AI模型经常出现事实性错误和逻辑漏洞。即使错误率只有0.1%,生成100个Token后,正确率也会暴跌到37%。更可怕的是,AI模型通常无法意识到自己犯了错,只会继续编造下去。第二,算力黑洞:自回归模型对所有问题“一视同仁”地进行暴力计算,这是一种极度低效的计算方式。杨立昆指出,回答“2+2=4”和证明“P=NP”消耗的算力几乎相同,这就好比“用核弹打蚊子”。第三,莫拉维克悖论:人类最容易完成的任务,往往对AI来说是最难的。例如,一个10岁的孩子可以轻松地收拾餐桌,而一个经过海量数据训练的AI模型却无法完成这项简单的任务。这说明,当前的AI模型缺乏具身认知,无法理解真实世界的物理规律和常识。这些问题都指向了自回归模型的根本性缺陷,即缺乏对世界的真正理解。
杨立昆的“反叛路线图”:JEPA、EBM和世界模型
针对自回归模型的局限性,杨立昆提出了自己的“反叛路线图”,核心是构建更接近人类认知方式的AI模型。他提出了JEPA(联合嵌入预测架构),这是一种全新的架构,它不直接预测每个像素或词语,而是将当前状态和未来状态映射到一个抽象的表示空间,从而能够更好地捕捉世界的规律和因果关系。此外,他还提倡能量基模型(EBM),这种模型能够像人类一样进行深思熟虑,而不是仅仅依靠直觉。最后,杨立昆强调了世界模型(World Model)的重要性,他认为AGI必须像婴儿一样学习,通过多模态感知来理解世界,而不是仅仅依赖文本数据。通过这三项技术路线,杨立昆希望能够构建出真正具有智能的AI系统,而不是仅仅是能够模仿人类语言的“高级复读机”。
AGI生死战:认知主义与实用主义的终极对决
杨立昆的观点也触及到了AI哲学的核心问题:AGI究竟是什么?他代表的认知主义阵营认为,AGI必须拥有内在的世界模型、因果推理和自主意识;而实用主义阵营则认为,AGI只需要能够高效地完成人类设定的任务即可。这场辩论也反映在技术路线的选择上:实用主义阵营继续押注于大型语言模型,而杨立昆则主张推翻自回归范式,从零构建具身智能架构。杨立昆认为,当前的AI技术,即使是像GPT-4这样强大的模型,也仅仅是“拼装式工具”,它们缺乏对世界的真正理解,无法完成一些看似简单的任务。他甚至认为,用预测Token的方法来构建AGI,就像用马鞭驾驶特斯拉一样荒谬。这场关于AGI未来方向的争论,将深刻影响着人工智能领域的发展。
开源还是封闭?AI文明的十字路口
最后,杨立昆强调了开源的重要性。他认为,任何国家或公司都无法垄断AGI,开源才能促进AI技术的快速发展和普及。他以LLaMA开源生态为例,指出开源可以降低AI技术的应用门槛,让更多开发者参与进来,从而推动AI技术朝着更公平、更公正的方向发展。然而,现实情况却充满了反讽:当杨立昆在学术殿堂批判LLM时,科技巨头们仍在利用LLM技术攫取巨额利润;当他呼吁开源时,专利墙和商业利益的壁垒依然存在。这场理想主义与商业现实的冲突,将决定着AI文明的未来走向。AGI的未来,究竟是开源的集体智慧,还是封闭的少数垄断? 这将是摆在我们面前的一个重要问题。
转载请注明来自石化资讯网,本文标题:《杨立昆怒斥GPT:自回归大模型是AI最大骗局?!3个理由告诉你为什么》
还没有评论,来说两句吧...