AI发展面临范式转折:苏茨克维称“扩展时代”终结,勒昆力倡“世界模型”

人工智能(AI)领域正处于一个关键的转折点,多位行业领军人物对当前主流的扩展(scaling)路线提出质疑,并呼吁回归基础研究。前OpenAI联合创始人、现任Safe Superintelligence(SSI)首席执行官伊利亚·苏茨克维(Ilya Sutskever)近日在一系列访谈中明确指出,AI的“扩展时代”已经终结,行业正重新进入“研究时代”。

苏茨克维,作为OpenAI的联合创始人,曾主导了GPT-2和GPT-3等标志性模型的开发,这些模型正是扩展范式的典型产物。然而,他现在认为,单纯依赖增加计算能力、扩大模型规模和数据量来提升AI性能的策略,其边际效益已显著递减。他观察到,尽管大型语言模型(LLMs)在特定基准测试中表现出色,但在实际应用中却常出现难以解释的错误,他称之为“不稳定性”(jaggedness)。苏茨克维以“编程竞赛学生”的比喻来阐释这一现象:模型可能在竞赛中表现优异,但其泛化能力远逊于人类,难以在复杂多变的现实任务中游刃有余。他强调,AI发展的下一个阶段需要发现新的、更高效的科学原理,以解决模型泛化能力不足的根本问题。此外,苏茨克维还探讨了情绪在人类决策中的重要性,并提出未来的AI系统需要考虑情感因素,以更好地理解和适应复杂世界。据报道,苏茨克维创立的SSI公司目前估值约320亿美元,已筹集30亿美元资金,致力于安全超级智能的研发。

与苏茨克维的观点相呼应,图灵奖得主、Meta首席AI科学家杨立昆(Yann LeCun)也对当前大型语言模型的发展方向提出了强烈质疑。他认为,以文本训练为主的语言模型技术可能是一个“死胡同”,无法实现真正的通用智能。杨立昆指出,大型语言模型缺乏对物理世界的理解能力,无法进行复杂的规划或建立因果判断,甚至不如一只家猫。他倡导“世界模型”(world models)将是未来AI发展的主流方向,即通过模拟和理解真实世界来推动AI的进步。

两位AI领域权威人士的观点,共同揭示了行业从注重快速商业化和规模扩展,向更深层次基础理论和方法探索的重大转变。随着训练数据面临瓶颈以及计算资源投入产出比的下降,AI研究正迫切需要新的范式,以期为最终实现通用人工智能(AGI)奠定坚实基础。

上一篇:

下一篇:

发表回复

登录后才能评论