当Calvin French-Owen在Slack上发出那条告别消息时,这位全程参与Codex开发的工程师或许没想到,他的离职长文会成为揭开OpenAI文化裂痕的导火索。从2024年5月入职到离开,他见证了公司员工数从1000人暴涨至3000人,工龄竟能排进前30%。这种疯狂扩张背后,是Slack驱动的高压工作模式、割裂的团队节奏和日益模糊的AGI初心。
007文化下的AGI乌托邦崩塌
Calvin的爆料揭示了OpenAI光鲜外表下的真实生态:所有工作都在Slack上完成,没有邮件系统;研究团队没有季度路线图,决策完全自下而上;产品团队却要7周内完成Codex上线。这种学术自由与商业落地的矛盾,在员工数暴增200%的管理混乱中被不断放大。
Richard Ngo的离职更具象征意义。这位AI治理研究员在Slack上直言:"越来越难相信自己的工作能长期造福世界"。他的困惑代表着一批科学家的集体焦虑——当AGI使命被拆解成一个个产品KPI,理想主义该如何安放?
安全团队的集体出走:一场被忽视的预警
超级对齐团队的瓦解或许是最危险的信号。Daniel Kokotajlo披露的数据显示,AGI安全研究员从30人锐减至16人。前安全主管Jan Leike的控诉更直白:"安全研究资源被掐断"。这背后是Ilya派系与Altman路线斗争的余波,也是"AGI赌博论"与激进产品化的尖锐对立。
对比Anthropic等公司15%的研发预算投入安全领域,OpenAI却在收紧伦理审查。当Codex这样的产品开发周期压缩到7周,安全评估自然成为第一个被牺牲的环节。前安全主管的警告犹在耳边:"AGI竞赛是一场危险的赌博,但没人找到真正的刹车机制。"
KPI重压下的科学家生存实录
离职员工们还原的职场生态令人窒息:研究员既要攻克GPT-5的技术壁垒,又要参与ChatGPT的迭代交付;股权协议成为封口工具,拒绝签字意味着丧失数百万美元的变现权;华人高管翁荔的适应性危机更具代表性——从机器人研究到商业化转型,七年老将最终选择离开。
Vox曝光的协议原件显示,OpenAI将签字期限从60天压缩到7天,条款明确威胁"不签署则排除股权变现机会"。这种制度化的施压手段,与OpenAI宣称的"造福人类"使命形成荒诞反差。
AGI竞赛中的囚徒困境
前员工Leopold Aschenbrenner的爆料将矛盾推向顶点:2030年超级人工智能将至,但安全团队已分崩离析。这种预警与微软谷歌的竞争压力形成可怕共振,正如前安全主管所言:"即使有人想减速,市场也会逼着所有人冲刺。"
人才流向印证了这种焦虑。出逃科学家纷纷投向Hugging Face等开源社区,或自立门户。当AGI预测时间表不断提前,而安全护栏持续拆除,我们是否正在重复核技术失控的历史?
理想主义者的退场与新生
OpenAI的困境折射出科技行业的普遍悖论:创新激情与商业现实的碰撞,技术理想与管理异化的对抗。Calvin那句"可能再回来"的开放式表态,暗示着AGI信仰尚未完全幻灭。但要让科学家们真正留下,或许需要建立斯图亚特·拉塞尔呼吁的"可验证匿名举报机制",在狂热竞赛中保留一丝清醒。当代码改变世界的速度远超伦理进化,谁来为人类按下暂停键?
相关文章
2025-07-170阅读
2025-07-170阅读
2025-07-170阅读
2025-07-160阅读
2025-07-160阅读
2025-07-160阅读
2025-07-160阅读
2025-07-160阅读
2025-07-160阅读
2025-07-160阅读