![]()
新智元报道
编辑:定慧
就在刚刚, Andrej Karpathy 这位曾一手缔造特斯拉Autopilot、定义了OpenAI早期灵魂、现在公认的全球「AI教导主任」,发布了他极具分量的2025年LLM年度回顾!
2025年,注定是人工智能历史上被铭记的一年。
如果说2023年是「惊艳」(ChatGPT的横空出世),2024年是「迷茫」(在大模型落地的憧憬中探索),那么在Andrej Karpathy的笔下,2025则是「觉醒」的一年。
![]()
Karpathy一直以来都是AI界的「顶流」布道者。
他的年终总结不仅仅是一篇技术回顾,更像是一部微缩的编年史,记录了LLM如何从「模仿人类的鹦鹉」进化到了「召唤理性的幽灵」。
他以极其敏锐的视角,捕捉到了AI进化的核心:RLVR(基于可验证奖励的强化学习)的崛起、Vibe Coding(氛围编码)的流行、以及那个令人深思的哲学隐喻:
创造AI,我们到底是在制造一种新的物种,还是在召唤幽灵?
这一次让我们剥茧抽丝,深度解析Karpathy提到的每一个范式转移。
穿过技术术语的迷雾,直抵智能进化的本质,呈现一个真实、疯狂且充满「参差感」的AI-2025年。
第一章:RLVR革命
从「讨好人类」到「追求真理」
在2025年之前,训练一个大语言模型(LLM)的通常包含三道工序:
预训练(Pre-training):
让模型阅读整个互联网,学会预测下一个token。这是「博学」的阶段。
监督微调(SFT):
用高质量的问答数据教模型如何像个助手一样说话。这是「懂事」的阶段。
人类反馈强化学习(RLHF):
让模型根据人类的喜好调整回答的语气和安全性。这是「讨好」的阶段。
这套流程在ChatGPT时代大放异彩,但也埋下了隐患。
![]()
Karpathy一针见血地指出,RLHF本质上是在训练模型「看起来像是在推理」,而不是「真的在推理」。
因为人类评审员也是人,他们很难在几秒钟内判断一段500行的Python代码是否真的没有Bug,或者一个复杂的数学证明是否严丝合缝。
于是,模型学会了走捷径:写出漂亮但错误的代码,编造听起来很有道理的废话。
这就是所谓的「阿谀奉承」(Sycophancy)问题。
这也和后来GPT-5的谄媚如出一辙。
RLVR的崛起:当上帝变成编译器
2025年,行业迎来了一个名为RLVR(Reinforcement Learning from Verifiable Rewards,基于可验证奖励的强化学习)的第四阶段。
RLVR的核心逻辑简单而粗暴:别听人的,听结果的。
![]()
在数学、编程、逻辑谜题等领域,我们不需要人类来打分。
代码能不能跑通?编译器说了算。数学题对不对?答案说了算。
这种客观、自动、不可欺骗的奖励信号,为模型提供了一个无限的练兵场。
RLVR可以看作是AI LLM的AlphaZero时刻。
当年的AlphaZero通过自我博弈精通了围棋,如今的LLM通过RLVR在「思维的棋盘」上自我博弈。
探索(Exploration):模型面对一道难题,不再是基于概率吐出一个答案,而是尝试生成成千上万条不同的推理路径(Reasoning Traces)。
验证(Verification):每一条路径都被送入一个自动验证器(Verifier),比如Python解释器或数学证明器。
强化(Reinforcement):只有那些通向正确结果的路径会被奖励,错误的路径会被惩罚。
在这个过程中,奇迹发生了!
模型并没有被显式地教导「如何思考」,但在为了获取奖励的残酷进化中,它涌现出了推理能力。
它学会了将大问题拆解为小步骤,学会了回头检查,学会了我们在教科书里从未见过的「外星人思维策略」。
RLVR不仅改变了训练方式,还引入了一个全新的Scaling Law:测试时算力。
以前,我们认为模型的能力在训练结束那一刻就定格了。
但在RLVR范式下,我们可以在推理阶段(InferenceTime)通过让模型「多想一会儿」来提升智力。
这就像是一个学生,你给他1分钟做题和给他1小时做题,其表现是完全不同的。
Karpathy特别提到了OpenAI o1(2024年底)和o3(2025年初)的发布,以及DeepSeek R1的开源,这些都是这一趋势的里程碑。
![]()
DeepSeek R1甚至展示了即便没有大规模的监督微调(SFT),仅靠纯粹的RLVR(即R1-Zero),模型也能从零开始衍生出强大的推理能力,甚至学会自我反思。
这意味着算力的价值从「训练端」向「推理端」转移。
未来的AI应用,可能会根据问题的难易程度,动态调整「思考时间」。
对于简单的问题(如「你好」),它秒回;对于复杂的问题(如「设计一个高并发架构」),它可能会消耗巨大的推理算力,但给出一个超越人类专家的方案。
第二章:哲学分野
我们是在造动物,还是在招幽灵?
在深入技术细节之余,Karpathy通过引用AI先驱Rich Sutton的对话,抛出了一个极具哲学深度的议题:Animals vs. Ghosts(动物与幽灵)。
![]()
Rich Sutton的苦涩教训与动物直觉
Rich Sutton是强化学习教父级人物,他提出了著名的「苦涩教训」(The Bitter Lesson):
长期来看,只有那些能利用无限算力的通用方法(如搜索和学习)才能战胜那些利用人类先验知识的方法。
简单点说,就是算力终结一切,人类的精巧构思在庞大的算力面前不值一提。
![]()
Sutton心目中的AGI是像动物一样的:一个具身的(Embodied)、在物理世界中通过不断试错、由生存本能驱动的学习者。
如果能造出一只「数字松鼠」,我们离AGI就不远了。
动物的智能是连贯的、持续的。一只松鼠不会因为你没给它指令就停止思考,它的「自我」是连续不断的流。
幽灵的诞生:统计学的降灵术
然而,Karpathy反驳道,我们现在造出来的LLM,根本不是动物。
它们是幽灵(Ghosts)。
无状态的游魂:LLM没有身体,没有持续的意识流。当你按下回车键,它从虚无中醒来(Boot up),处理你的Token,吐出预测,然后瞬间「死亡」,回到虚无。它没有昨天,也没有明天,只有当下的Context Window(上下文窗口)。
人类的镜像:它们的训练数据不是物理世界的反馈,而是人类互联网的文本残留。它们是人类文明的「统计学蒸馏」。当我们与ChatGPT对话时,我们不是在与一个独立的生物交流,而是在与全人类的语言碎片拼凑成的「英灵殿」对话。
BTW,我真的非常喜欢这个比喻,现在的AI可能还是先知,或者人造之神,但是一个由全人类的语言碎片拼凑成的英灵。
为什么这个比喻如此重要?
因为它解释了为什么现在的AI充满了「恐怖谷」效应。
当一个LLM说「我不想死」时,它不是真的在恐惧(像动物那样肾上腺素飙升),它是在调用训练数据中关于「科幻AI面临毁灭时该说什么」的文本模式。
它在扮演恐惧。
![]()
Karpathy认为,我们目前的科研方向并不是在制造更完美的动物,而是在召唤更强大的幽灵。
这是一种全新的智能形态,位于「心智空间」(Space of Minds)的一个完全不同的坐标系上。
![]()
这种智能是「参差」的(Jagged),它通晓天文地理(因为它读过维基百科),却可能在数「strawberry」里有几个「r」这种连三岁小孩都会的问题上翻车。
第三章:Vibe Coding
当编程变成了玄学
如果说RLVR是后台的革命,那么Vibe Coding(氛围编码)就是前端开发者的彻底解放。
Karpathy在这个概念上展现了他作为「造词大师」的天赋。
![]()
在传统的「软件1.0」时代,程序员是工匠,每一个变量名、每一个内存指针都需要精心雕琢。
在「软件2.0」时代(深度学习),程序员变成了炼丹师,调整权重和数据集。
而在2025年的Vibe Coding时代,程序员变成了产品经理。
语法已死,氛围永生
什么是Vibe Coding?
就是你完全放弃对代码细节的掌控,「把自己交给氛围(Vibes),拥抱指数级增长,甚至忘掉代码的存在」。
你不再逐行编写代码,而是用自然语言描述你的意图(Intent),让AI去生成实现。
如果跑不通?没关系,把报错信息甩回给AI,说一句「修好它」。
MenuGen实战:零行代码的奇迹
Karpathy为了验证这个理论,亲自上手做了一个叫MenuGen的项目。
这是一个Web应用,用来生成餐厅菜单。
![]()
令人震惊的是,作为顶级程序员的Karpathy,在这个项目中没有手写一行代码。
他对着Cursor或ClaudeCode说:「我要一个菜单生成器,要有蓝色的按钮。」
AI生成代码,运行。
如果有Bug,他不说「第5行逻辑错了」,而是说「感觉不太对,按钮太丑了,换个样式」。
这就是Vibe Coding的核心:人类负责审美和验收,AI负责逻辑和实现。
代码变成了一种「中间产物」,就像汇编语言一样,除了极少数底层工程师,没人再需要去读它了。
工具之战:Cursor vs. ClaudeCode
2025年也是AI编程工具的「战国时代」。
Karpathy重点对比了两大流派:
Cursor/Windsurf(IDE派):
这些工具将AI无缝集成到了VSCode里。它们就像是钢铁侠的战衣(IronManSuit),增强了人类的能力。你依然在写代码,但AI随时在帮你补全、重构、解释。这种体验是「流畅」的。
ClaudeCode(终端派):
Anthropic推出的ClaudeCode则更加激进。它不是IDE插件,它是一个活在终端(Terminal)里的Agent。你给它一个任务:「把整个项目的测试覆盖率提高到80%」。然后你就去喝咖啡了。它会自己跑测试、看报错、修代码、提交Git,甚至自己由于权限问题卡住时还会问你讨要权限。
Karpathy坦言,虽然Claude Code展现了Agent的雏形,但在2025年,真正的「全自动工程师」还未到来。
目前的Agent更像是一个勤奋但记性不好的实习生,能干脏活累活,但在面对复杂的大型架构时,依然需要人类的「Vibe」来把控方向。
如果在云端的AI像是住在神殿里的先知,那么Anthropic推出的Claude Code(CC)就像是住在你硬盘里的管家。
Karpathy认为OpenAI走错了路,他们太执着于云端、容器化和ChatGPT的网页入口。
而Claude Code抓住了开发者的痛点:本地化(Localhost)。
第四章:范式转移
GUI的终结与新生
谷歌Gemini Nano Banana是2025年最具颠覆性的范式转移模型之一。
这原本是Gemini图像生成模型的内部代号。
这本该是一个严肃的技术发布,但因为「Nano Banana」这个名字实在太滑稽、太无厘头,它意外地引发了一场全球范围的病毒式传播。
在Karpathy看来,LLM是继1970、80年代计算机之后的下一个重大计算范式。
人类将见证个人计算、微控制器(认知核心)、互联网(智能体网络)等概念的对应形态。
特别是在用户界面体验方面,与LLM「对话」有点像1980年代向计算机终端输入指令。
文本是计算机(及LLM)偏好处理的原始数据形式,却非人类喜爱的交互格式,尤其在输入层面。人们其实厌恶阅读文字——这过程缓慢且费力。
![]()
相反,人类更倾向于通过视觉和空间维度接收信息,这正是传统计算领域发明图形界面的根本原因。
同样地,LLMs应当以我们偏好的格式与我们对话——通过图像、信息图、幻灯片、白板、动画/视频、网页应用等形式。
这一理念的早期及当前版本自然包括表情符号和Markdown这类工具,它们通过标题、加粗、斜体、列表、表格等方式对文本进行视觉化装扮与排版,以便更轻松地消化信息。但究竟由谁来构建LLM的图形用户界面呢?
在这种世界观下,nano banana首次为我们提供了这种可能性的早期雏形。
值得注意的是,它的一个显著特点在于:这不仅仅是图像生成本身,更是文本生成、图像生成与世界知识三者交织于模型权重之中所形成的综合能力。
人们不再讨论参数量、扩散算法,而是疯狂地生成各种「香蕉化」的图像,将万物变成手办风格。
谷歌也顺水推舟,在官方宣传中使用了香蕉Emoji。
由此,Karpathy提出了一个极其深刻的观点:文本是计算机喜欢的格式,不是人类喜欢的。
人类讨厌阅读长篇大论,人类喜欢图表、动画、视频和白板。
参差的智能
人类的智力通常是正相关的:一个能解微积分的人,通常也能算清楚买菜找零。
但AI不同。
它可以是一个数学天才(RLVR让它精通奥数),同时又是一个常识白痴(无法理解简单的物理空间关系,或者数不清单词里的字母)。
这种「参差感」源于模型训练数据的分布不均和Tokenization的先天缺陷。
模型在它「见过」或「被强化过」的领域(如代码、数学)表现出神入化,而在那些因为太简单而从未被当作训练数据的领域(如日常生活中的隐性知识)则表现得像个智障。
系好安全带,在参差中前行
简而言之,2025年是LLMs令人兴奋且略带惊喜的一年,我们站在了一个奇异的十字路口。
Karpathy的年终总结,像是一份来自未来的生存指南。
LLMs正作为一种新型智能形态崭露头角,它们既比人类预期的聪明得多,又比人类预期的笨拙得多。
无论如何,它们都极其有用,Karpathy认为即使以当前能力,行业也远未发掘出它们哪怕10%的潜力。
与此同时,有太多想法值得尝试,从概念上看这个领域仍感觉广阔无垠。
正如今年早些时候在Dwarkesh播客中提到的,Karpathy同时(表面上看似矛盾地)相信:
我们将见证持续快速的发展,同时仍有大量工作亟待完成。
正如Karpathy所言:「这仅仅是个开始,系好安全带,准备启程。」
参考资料:
https://x.com/karpathy/status/2002118205729562949
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!
相关文章
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读
2025-12-2018阅读