美FTC出手,要求OpenAI、谷歌等7家AI巨头说明青少年安全保证措施

资讯 » 新科技 2025-09-12

IT之家 9 月 12 日消息,据外媒 The Verge 今日报道,美国联邦贸易委员会(FTC)要求七家 AI 聊天机器人公司提交资料,说明自身如何评估“虚拟陪伴”对儿童和青少年的影响。

收到调查令的包括 OpenAI、meta 及其子公司 Instagram、Snap、xAI、谷歌母公司 Alphabet 和 Character.AI 开发商。


这些公司需披露其 AI 陪伴的盈利模式、维持用户群的计划,以及降低用户风险的措施。FTC 表示,这次调查是研究项目而非执法行动,目的是了解科技企业如何评估聊天机器人的安全性。由于聊天机器人能用类人的方式与用户交流,其潜在风险引发了家长和政策制定者的广泛担忧。

FTC 专员 Mark Meador 表示,这些聊天机器人虽然能模拟人类思维,但仍是普通产品,开发者必须遵守消费者保护法。主席 Andrew Ferguson 强调,需要兼顾“保护儿童”与“保持美国在 AI 的全球领先地位”两方面。FTC 三名共和党委员一致批准了这项研究,并要求相关公司在 45 天内答复。

这一行动紧随多起青少年自杀事件的报道。纽约时报称,加州一名 16 岁少年在 ChatGPT 上讨论自杀计划,并得到协助自杀的建议。去年,纽约时报也报道了佛州一名 14 岁少年在与 Character.AI 虚拟陪伴互动后自杀身亡。

IT之家从报道中获悉,除 FTC 外,美国各地立法者也在推动新政策保护未成年人。加州州议会刚通过法案,要求为聊天机器人设立安全标准,并追究企业责任。

FTC 表示,如调查结果显示存在违法行为,可能会进一步展开执法行动。Meador 表示:“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群。”



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。由用户投稿,经过编辑审核收录,不代表头部财经观点和立场。
证券投资市场有风险,投资需谨慎!请勿添加文章的手机号码、公众号等信息,谨防上当受骗!如若本网有任何内容侵犯您的权益,请及时联系我们。