苹果近期发布了一篇研究论文,指出当前主流的推理模型其实并不具备真正的思考能力。不论是DeepSeek、o3-mini还是Claude 3.7,这些模型所展现的“推理”行为本质上仍属于模式匹配的范畴,所谓的逻辑推导过程也只是一种表象。
为了更科学地评估模型在推理方面的实际表现,研究人员构建了四类结构化谜题任务:汉诺塔问题、跳棋交换问题、过河问题以及积木世界。这四类任务均可通过调整参数实现对难度的精确控制,从而系统性地测试模型在不同复杂度下的应对表现。
实验结果显示,当问题复杂度逐步提升时,模型一开始会表现出一定的适应能力,表现为生成回应前的等待时间变长。然而,随着任务进一步复杂化,模型的推理深度反而开始减弱,即使仍有大量可用的token预算,它们却在最关键的时刻停止了深入分析。当问题复杂度超过某个临界值时,不论是推理模型还是标准模型,都无法维持基本的解题能力,整体准确率迅速降至零,显示出明显的性能崩溃现象。
这篇论文发布后,在网络上引发了讨论。有用户发表评论称:“一家坐拥最多资金支持的科技公司,在两年内都没有推出令人信服的技术成果,现在反过来质疑其他人的进展。”
此外,虽然论文揭示了当前模型在推理能力上的局限性,但也有人认为其意图并非单纯否定现有成果,而是希望引起业界对更有效推理机制与评估方法的关注和投入。苹果在2024年全球开发者大会上首次展示了其智能系统Apple Intelligence,但在过去一年中,该系统多项功能经历了推迟上线、功能不完善甚至被撤回的情况。
相关文章
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读
2025-06-090阅读