Sam Altman:AI的价值不在于它存储了多少知识,而在于其“推理能力”

前沿资讯 1749378298更新

0

在2025年Snowflake峰会上,OpenAI首席执行官萨姆·奥特曼(Sam Altman)与Conviction创始人萨拉·郭(Sarah Goh)围绕通用人工智能(AGI)的实现时间表与下一代AI的能力边界进行了深入探讨。

当谈到未来一到两年内AI的能力时,奥特曼表示模型能力将持续实现指数级增长,”下一代模型不仅能理解最复杂的问题,还能整合海量上下文、连接所有工具,并进行高质量推理,从而实现自动化解决方案。他设想,未来可以把最棘手的问题交给AI系统,说:“去解决它,我给你充足的算力。”AI将独立思考、得出解法,甚至胜过专家团队。

奥特曼特别强调,AI的价值不在于它存储了多少知识,而在于其“推理能力”。他设想的“理想模型”是:一个体积小但具备超人推理能力的AI,有着极高速度、巨量上下文窗口,还能调用所有外部工具。在这种能力面前,“知识是不是在模型里已不重要,模型可以即时推理、实时调用资源。”

代理程序(Agents)将实现持续进化。奥特曼预测,未来代理程序将从当前主要用于短期、重复性的低层次认知工作,向长期、高价值任务拓展。在科学研究领域,未来可能会出现“AI科学家”,能够自主发现新科学。在企业业务中,代理程序将帮助解决复杂问题,从自动化客户支持、促销销售等任务,逐渐过渡到承担更关键、复杂的业务项目,成为企业创新和发展的重要驱动力。

奥特曼指出,部分人将AGI与“意识”概念混淆。实际上,AGI更侧重于功能性突破,即具备强大的推理、问题解决等能力,而并非模拟人类的主观体验。我们应从技术实际能够实现的功能和对社会的影响角度去理解AGI,而不是纠结于是否具备人类意义上的“意识”。

“AGI的定义并不重要”,真正关键的是“进展速度”。从2020年的“AI黑暗时代”到今天,如果你把当前ChatGPT的表现带回五年前,几乎所有人都会说:“这已经是AGI了。”与其争论AGI是2024、2026还是2030年实现,不如关注那条“惊人顺滑的指数增长曲线”。他表示,若AI能帮助人类大幅提升科学发现效率,让全球科学进展速度翻四倍,那就已经符合他心中的AGI标准。

当被问及“如果拥有1000倍算力,你会怎么用?”时,奥特曼的回答是:“我会让AI去研究如何造出更好的AI,然后再问它:‘现在我们该如何使用这1000倍算力?’”这是一个“自我增强式”的构想。今天我们已经看到,在困难任务上给予AI更多推理时间、尝试次数,就能得到更优结果。“即使你没有1000倍算力,但认识到算力回报呈幂律分布这一点,就能指导你在关键任务上投入更多资源。”

参考资料:https://www.youtube.com/watch?v=qhnJDDX2hhU