在人工智能领域,Ilya Sutskever的最新观点引发了广泛关注。作为Safe Superintelligence Inc.的创始人,他在一次深度访谈中提出,AI发展的“扩展时代”已经结束,行业正进入一个全新的“研究时代”。这一断言不仅在学术界引起热议,也在产业界掀起波澜。
Ilya Sutskever指出,当前大模型存在一个显著矛盾:它们在高难度评测中表现优异,但在简单任务上却频频出错。他将这种现象归因于“奖励黑客行为”,即研究人员过度针对评测集进行强化学习训练,导致模型缺乏真正的泛化能力。他用一个生动的比喻说明这一问题:目前的模型就像一个刷了10,000小时题目的学生,虽然能解题但缺乏真正的智能,而人类则像练习较少但更具天赋的学生,能够展现出更好的泛化能力。
在探讨情绪与价值函数的关系时,Ilya提出一个深刻见解:人类的情绪类似于机器学习中的价值函数。情绪并非无用,而是进化的产物,帮助我们在获得最终结果前判断当前决策的好坏。他通过一个案例说明这一点:一位因脑损伤失去情绪处理能力的患者,虽然智力正常,但在做决定时变得极度糟糕,甚至无法决定穿哪双袜子。这表明情绪在使我们成为可行主体方面发挥着关键作用。
关于AI发展的阶段转变,Ilya认为,过去几年“扩展”是主旋律,只要增加算力和数据就能提升模型性能。但现在,预训练数据即将耗尽,单纯扩大规模的回报正在递减,行业正重新回到“研究时代”。这意味着不能只靠盲目扩大规模,而是要寻找新的“配方”,更聪明地使用算力,例如在强化学习和推理过程中。
Safe Superintelligence Inc.的战略也体现了这一转变。与OpenAI等公司逐步发布产品不同,SSI倾向于专注于研发,直到解决安全超级智能的问题后再发布。Ilya承认逐步发布有助于让世界适应,但他认为避免商业竞争的“老鼠赛跑”对安全至关重要。SSI试图解决根本性的技术问题,而不是仅仅在现有范式上修修补补,目前专注于研究,不急于通过产品获利。
在谈到对齐问题时,Ilya提出的核心目标是“关爱感知生命”。他认为这是一个比单纯“听从人类指令”更稳健的目标,因为AI本身也将是感知生命的一部分。他设想未来可能会有多个大陆级规模的AI集群,只要前几个最强大的AI是对齐的,世界可能会进入一个良性发展的轨道。长期来看,他设想人类通过脑机接口与AI融合,成为“半AI”,从而避免被完全边缘化。
Ilya还分享了他的研究哲学。他依靠一种“自上而下”的信念,这种信念源于对美、简单性的追求以及对生物学(大脑)的正确借鉴。当实验数据与直觉相悖时,这种基于美的信念能支撑研究者继续寻找问题或坚持方向,而不是轻易放弃。他认为,不同的人有不同的研究方法,但寻找近乎美的东西、美和简单、优雅以及从大脑中获得的正确灵感,这些因素共同指引着他的研究方向。
这场由Dwarkesh Patel主持、长达95分钟的深度对话,上线短短数小时便在X平台上突破了百万浏览量。从大模型的技术现状到研究品味,再到对超级智能的终极构想,Ilya毫无保留地分享了他的见解,为理解AI的未来提供了宝贵的视角。

