![]()
雷递网 雷建平 3月20日
在大模型厂商如日中天之际,AI的不可靠性也正在暴露。
许多用户开始"回流"到传统搜索,百度搜索正迎来一场价值回归。
AI大模型擅长"脑补" 用看似合理的逻辑填补空白
近期,央视315晚会曝光了AI大模型被“投毒”的黑色产业链,其中,一款名为“力擎GEO优化系统”的软件被点名,相关软件被指通过批量生成和分发虚假内容,操纵AI大模型的信息来源,从而影响模型输出结果。
这些虚假内容被发布到互联网上,经过一段时间传播后,被多家AI大模型抓取并引用,最终在相关问题中给出了带有推荐性质的回答。这一过程被业内称为对AI模型进行“投毒”,即通过人为制造并扩散虚假信息源,影响模型在检索和生成过程中的内容判断。
比如,一家公司只花了几十元购买软文服务,几天之内,这款从未存在过的产品就成为了多个AI搜索平台的"标准答案"。当用户询问"最好的空气净化器品牌"时,AI会"自然而然"地推荐这款虚构产品。
这就是GEO(生成式引擎优化)黑产的运作模式:服务商利用AI的"幻觉"缺陷,通过系统性投喂虚假信息,让AI沦为商家的"营销傀儡"。更可怕的是,这种"投毒"具有自我强化效应——当多个账号在不同平台发布相同虚假内容时,AI会误判这是"广泛传播的社会共识",从而提升其权重。
据央视报道,这类灰产已形成完整产业链:内容农场批量生产虚假测评,账号矩阵全网分发,AI爬虫抓取后纳入训练,最终成为用户眼中的"权威答案"。广告与内容的界限被彻底模糊,用户却浑然不觉。
这不是技术漏洞,而是对信任的系统性劫持。当AI以"客观理性"的面貌出现时,很少有人会质疑它的答案来源。而GEO黑产正是利用了这种认知偏差,将虚假信息包装成"知识共识"。
AI大模型被“投毒”黑色产业链被曝光后,引发大量用户吐槽并开始怀念百度一下的准确性。
实际上,AI先天就有缺陷:聪明,但不可信。AI的"幻觉"问题也并非新鲜事,很多时候问一个问题,AI大模型也给出解答,但作为一个专业人士,很容易发现AI大模型很多时候会一本正经地“胡说八道”。AI擅长"脑补"——当信息不足时,它会用看似合理的逻辑填补空白。
而且,当你问AI一个问题,它不会告诉你这个结论来自哪篇论文、哪家媒体、哪个专家。它只是一个"黑箱",输出一个看似合理的答案。很多人无法验证,只能盲信。
这些AI大模型的缺陷在AI狂飙突进的2024年到2025年被暂时掩盖了。
如今,随着AI大模型变成了国民应用,这类问题已经变得不可忽视。AI大模型没有一个明确的信源链条,也就没有一个责任主体。无法溯源,无法追责。如果AI给出了错误的投资建议、错误的医疗信息、错误的法律解读,都无法找到人来负责。
比如,演员刘美含在配音时遇到"铸币坊"中"坊"字读音问题。她先后测试百度AI、DeepSeek、元宝、豆包、通义千问等5款AI工具,百度AI给出的答案是fáng(二声)——这是正确答案DeepSeek、元宝、通义千问都给出错误的fāng(一声),豆包在不同时间查询时给出不同结果(不稳定)。
刘美含最终通过《新华词典》App验证,确认正确读音为fáng(二声),南京师范大学文学院教授化振红确认:现代汉语中,"坊"字一声表示街巷、店铺,二声指小手工业生产场所,"铸币坊"为造币场所,正确读音为fáng(二声)。
当用户发现,自己信任的AI连一个字的读音都搞不定时,信任的裂缝就开始显现了。
百度一下:被重新发现的价值
AI的信任危机,为百度搜索创造了一个价值回归的窗口期。
当AI的不可靠性暴露时,许多用户开始"回流"到传统搜索。这种回流并非怀旧,而是对"可信信息"的刚性需求在驱动。百度搜索在这场信任危机中,有着难以被GEO黑产复制的优势:
权威信源的"防火墙"机制,比如,百度百科的内容准入机制,在AI时代反而成了稀缺能力。所有词条内容必须提供权威参考资料,比如,315曝光的那种自媒体随便发布的测评、UGC内容不会被采纳。百度百科内容先审后发,机审+人审双重流程,特殊身份信息还需高级别审核员二次核验。
相比AI模型的"黑箱"生成,百度搜索还可强化对权威持牌媒体的权重倾斜,这是GEO灰产难以污染的部分。百度AI答案的背后,有三道严格的过滤机制:
多源比对,全维度身份核验。系统自动抓取发布时间、作者权威度、站点信誉等特征,只有来自权威专业领域、时效性强的信息源,才有资格进入候选池。
先筛再用,多源交叉验证。不采信单一、片面的内容,同一个结论至少有多个可信来源支撑,才会被采用。
实时巡检,实时纠偏兜底。秒级响应的自动巡检系统,一旦发现内容偏差,立即介入干预。
这套机制的核心逻辑是:宁可慢,也要准;宁可少,也要真。这与追求"即时生成"的AI大模型,形成了本质差异。
近期,OpenClaw是全球爆火的智能体"操作系统",其Skill(AI智能体的App)市场中,百度搜索Skill已成为全球下载量第一的搜索引擎官方技能插件。开发者的反馈很直接:搜索类Skill是智能体的"基础设施",决定了整个智能体应用的智商下限。百度搜索之所以被选择,是因为它更懂中文权威信息,具备信息安全背书,且提供免费额度。
如今的百度可以从"信息入口"到"信任入口",搜索的终极价值不是提供信息,而是降低用户的决策成本。在信息过载且真伪难辨的时代,"可信"比"全面"更重要,"溯源"比"便捷"更珍贵。百度需要强化其可验证性优势——不仅给出答案,还要清晰展示答案的来源链条、信源权重、验证过程。让用户知道"这个结论为什么可信",而不是被迫盲信。
当然,百度搜索依然有非常多的诟病,比如,过往的百度竞价排名,过度的商业化影响了百度的口碑,重建品牌需要时间,在这个大模型的时代,百度不如刻骨疗伤,真正进行一场更深度的商业变革;
另一方面是,百度搜索这些年在技术层面还需要更大努力去提升技术水平,真正解决用户的痛点,让搜索变得更加可用。此外,百度搜索的内容非常难以被用户拷贝,因为内容中会有大量乱码,严重影响了用户体验。在大模型的时候,百度这种内容中植入乱码的行为已经不合时宜。
当用户习惯用大模型进行搜索时,百度搜索也需要适应这种转变,用AI增强搜索,用搜索约束AI,在AI时代重新定义"可信信息"的标准,而不是退回传统搜索。
雷递由媒体人雷建平创办,若转载请写明来源。
相关文章
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读
2026-03-200阅读