新智元报道
编辑:元宇
近段时间,「死亡互联网理论」刷屏硅谷,OpenAI创始人兼CEO Sam Altman、Reddit联合创始人Ohanian等纷纷对其发表评论。失去真实性的网络等同于死亡。AI生成内容正席卷社交平台,从图片、视频到自动化评论。互联网的未来不在真假之争,而在重拾「真实」的信任与温度。
当互联网被AI内容淹没,真正由人类创作的内容正在日益缩减。
「如今的互联网,大部分已经死了」,近日Reddit联合创始人Alexis Ohanian一语惊人。
Reddit联合创始人Alexis Ohanian
他口中的「互联网死亡」并不是指互联网被关闭了,而是被铺天盖地的AI生成内容所淹没,失去了真实的生命力。
Ohanian所言非虚。
曾经汇聚人类真实思想和交流的网络,如今正被大量AI生成的内容所占据:
你看到的热帖、阅读的文章、甚至与你争论的「网友」,都可能根本不是人类,背后或许早已是算法与AI的「回声」。
AI生成内容的无序扩张,正在蚕食互联网的真实性。
旅行类大V Chris Broad在X平台上表示,「死亡互联网理论」现在已经成为「死亡互联网现实」:
每天都有普通人给我发消息,让我去一些根本不存在的地方,这些地方都是人们在Facebook、Instagram和Twitter相关主题账号或页面中提到的……这些帖子通常包含完全虚假的AI照片,下面还有机器人账号在评论区盲目地称赞照片。
Chris Broad提醒人们要小心自己关注和点击的内容。「要知道,大多数页面、内容以及粉丝数量,都是被严重人为夸大的。」
网友Swarn也提到经常会刷到疑似AI生成的推文,他会通过内容中夹杂的「突然转折、刻意堆砌的词汇、借用的隐喻」来识别「AI味」。
Goddess预测到下一年「死亡互联网理论」会越来越受到关注,所有社交媒体账号并非都是真实的人。
这股热潮,甚至把OpenAI创始人兼CEO Sam Altman也惊动了。
Sam Altman认为「死亡互联网理论」可能有一定的道理。他提到「现在的确存在很多由大模型驱动的Twitter账号」。
这些AI生成内容的泛滥,让Altman再度担心「死亡互联网」理论的影响。
不真实,毋宁死
「死亡互联网」理论的起源
「死亡互联网理论」(DIT,Dead Internet Theory),传递出这样一种核心态度:
不真实,毋宁死。
它认为只有真实才是互联网的生命——失去真实性,就等于是宣告了互联网的「死亡」。
2021年,用户IlluminatiPirate在Agora Road论坛发帖提到了「死亡互联网理论」,这位网友对其的定义就是「大多数互联网变得虚假」。
伴随着互联网社会的发展,「死亡互联网理论」思潮在网络论坛和社区中开始逐渐流行,背后的驱动因素正是「真实感」的逐渐丧失:
现代互联网带来了花样百出的玩法,但真实感也被玩丢了。
早期互联网那种有机的、用户驱动的特性一点点消失,取而代之的是越来越依赖计算机生成的内容(数据)以维持活动和参与度。
随着生成式AI的出现,让「死亡互联网理论」获得了更多的「现实支撑」。
因为生成式AI更像人类,它们在社交媒体上被广泛应用于放大点赞、评论和分享数据等。
就连Sam Altman,这位亲手让ChatGPT风靡全球的「AI之父」,也被铺天盖地的「程序味儿」搞破防,他忍不住吐槽Reddit上的AI腔调(LLM-speak),认为这让人际互动「感觉很假」。
从早期互联网,到社交媒体时代,再到生成式AI浪潮,原来那个真实的互联网已逐渐被一个由AI主导的互联网所取代,「技术登月」越来越多,但真实感却越来越少了。
换句话说,「死亡互联网」理论的市场越来越大了。
「死亡互联网」的升级版
如今,如火如荼的AI浪潮,正按下「互联网死亡」的加速键,并且还带了它的升级版本。
据Cloudflare的长期监测显示,机器人流量约占整体应用流量的31%左右,并在部分地区和时段阶段性超越人类访问。
Imperva在2025年版的《Bad Bot Report》中则指出:自动化流量在2024年已达51%,其中从事恶意活动的「坏机器人」占比升至37%。
这里的「坏机器人」在生成式AI时代更为突出,因为它们更善于伪装成人类行为。
它们有时只是在社交媒体上生成一些空洞或胡言乱语的评论,但也可能被恶意使用,比如制造虚假的页面浏览量、用户互动和使用时长,从而造成公司业绩数据的扭曲。
不止活跃于社交媒体,生成式AI还在逐步接管人类表达领域。
Graphite的一项数据记录了这一里程碑时刻:
2024年11月,网络上发表的AI生成文章数量超过了人类撰写的文章数量。
据Graphite观察,自2022年11月ChatGPT推出以来,AI生成文章数量显著增长,但在过去一年中AI生成文章的比例保持相对稳定,这可能是因为早期AI生成文章质量不佳导致的。
但随着AI生成文章质量的提高,再加上AI生成文章的速度之高、成本之低也远非人类可比,可以预见未来AI文章的数量还会稳定增长。
这意味着,AI生成内容的数量增长不仅改变了信息来源的结构,也正在重塑网络生态真实感的「基线」,也可能带来AI时代「互联网死亡」的升级版——模型崩溃。
https://arxiv.org/pdf/2305.17493
这一点在牛津大学等研究机构发表的《递归的诅咒(Curse of Recursion):在AI生成数据上再训练会导致模型遗忘》论文中已经得到了理论上的证实。
AI时代真正的危机是模型崩溃。
在大模型使用生成数据继续训练(continue training)的递归过程中,模型会慢慢「忘记」或偏离原始人类语言分布的某些细节,尤其是那些少见或者边缘的模式。
这样模型会逐渐丢失多样性沦为一切趋于平庸的同质化,最终出现模型崩溃(Model Collapse)。
这就好像把一张照片在上一代复印件的基础上不断复印,其清晰度会逐渐下降,最终变成一张模糊的、缺乏细节的照片。
当越来越多的AI内容成为模型的训练数据,就可能带来模型能力的下降,由此产生更多劣质的AI内容,这些内容再训练出更差的AI模型,最终就是更严重的危机——模型崩溃。
从互联网的「死亡」,到模型的「崩溃」,与技术发展同步的,是「失真」的演进。
让互联网更「人」一点,更「真」一点
Google CEO Sundar Pichai认为搜索引擎会被AIGC 「深刻改造」,因此AI回答与人类内容的协同将成为主流交互范式。
Google CEO Sundar Pichai
英伟达CEO黄仁勋,提出应当把AIGC视作时代性通用技术,将无处不在地嵌入创作、工程与组织工作流。
随着AI对于互联网和人类社会的渗透,AI生成的内容将会像Sam Altman预言的那样,会不可避免地越来越多。
这就带来一个难题:如何区分AI和人类生成的内容。
随着人类正越来越多地与AI合作,让这一点变得更加困难。
的确,一个人在工作中利用AI的方式有很多种,比如用它来搜索,整理材料等,因此很难明确地说某项内容是AI生成的还是人类生成的。
实际上很多AI生成的内容,背后是人类在引导、编辑、校正。
用加州大学洛杉矶分校计算机科学教授、亚马逊网络服务副总裁Stefano Soatto的话来说,「二者之间更像是一种共生关系,而不是非此即彼。并非所有AI生成的内容都是垃圾内容。」
在这种共生的关系下,用不用区分AI和人类生成的内容?
Sam Altman认为,「好不好比是不是AI产出更重要」,但他也提出要有「可验证的来源」与治理工具,以识别哪些是AI生成的并提升信任。
Altman认为识别AI生成内容是为了提升对内容的信任度,他曾多次提醒不要过度信任模型,因为AI也会「自信地编造」。
同样,Anthropic CEO Dario Amodei也认为,需要科学的方法和评估体系为此来兜底,他认为虽然模型「胡说」频率可能低于人类,但出错方式更「出其不意」。
Elon Musk也强调要用AI去检测/溯源合成视频与深伪,在平台层面构建「内容鉴别器」。
这点随着AI技术的发展变得尤为重要。
近日,Sora 2上线后短时间内就有大量「以假乱真」的视频在社媒流通,YouTube、meta正通过出台「贴标」「降权/限变现」等方式,试图限制「AI灌水内容」的扩散。
对于AI生成内容的监管也在多地加码。
比如,美国政府在2025年5月19日正式出台《TAKE IT DOWN 法案》,将故意发布或威胁发布非同意的亲密图像(包括 AI 生成的深度伪造)定为犯罪行为。
欧盟首部关于人工智能的法规《AI法案》明确合成内容必须标识、与用户交互需透明提示。
识别AI内容是为了安全,避免AI噪声,但即便是AI生成的内容优于人类,这种区别仍然是必须的。
因为相比较好坏,真实性永远更为重要。
不仅是互联网,即使是AI时代的数字生命,本质仍然在于「真实」。
在人机共生的时代,我们需要关注的重点不在于人类与AI的区别或者优劣,而是如何让AI服务于人类的真实。
无论未来技术如何演进,人类仍需守住那份「真实」的火种。
参考资料:
https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans%20%20
https://arxiv.org/pdf/2502.00007%20
https://x.com/AskPerplexity/status/1978587411803156942
相关文章
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读
2025-10-1923阅读