6 月 1 日消息,据美国国家公共广播电台(NPR)报道,社交媒体巨头 meta 正在计划将其产品潜在风险评估的任务从人工审核转向更多依赖人工智能(AI),以加快审核流程。内部文件显示,meta 的目标是让高达 90% 的风险评估工作由 AI 完成,甚至包括涉及青少年风险和“诚信”领域的评估,后者涵盖暴力内容、虚假信息等多个方面。然而,与 NPR 交流的现任和前任 meta 员工警告称,AI 可能会忽视一些人工团队能够识别的严重风险。
长期以来,meta 旗下包括 Instagram 和 WhatsApp 在内的平台的更新及新功能,在面向公众推出之前都会经过人工审核。但据报道,过去两个月,meta 大幅增加了对 AI 的使用。如今,产品团队需要填写一份关于其产品的调查问卷,并提交给 AI 系统进行审核。该系统通常会提供“即时决策”,指出其识别出的风险领域。产品团队随后需要解决 AI 提出的要求,才能发布产品。
一位 meta 前高管表示,减少审核力度意味着“你正在创造更高的风险。产品变更的负面外部效应在开始造成问题之前更不可能被阻止”。meta 在一份声明中回应称,公司仍会利用“人类专业知识”来评估“新颖且复杂的问题”,而将“低风险决策”交给 AI 处理。
注意到,meta 几天前公布了其最新季度诚信报告,这是该公司今年早些时候改变内容审核和事实核查政策后的首份报告。报告显示,在政策调整后,被删除的内容数量如预期般有所下降,但霸凌和骚扰行为、以及暴力和血腥内容却略有上升。
相关文章
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读
2025-06-025阅读