IT之家 9 月 12 日消息,据外媒 The Verge 今日报道,美国联邦贸易委员会(FTC)要求七家 AI 聊天机器人公司提交资料,说明自身如何评估“虚拟陪伴”对儿童和青少年的影响。
收到调查令的包括 OpenAI、Meta 及其子公司 Instagram、Snap、xAI、谷歌母公司 Alphabet 和 Character.AI 开发商。
这些公司需披露其 AI 陪伴的盈利模式、维持用户群的计划,以及降低用户风险的措施。FTC 表示,这次调查是研究项目而非执法行动,目的是了解科技企业如何评估聊天机器人的安全性。由于聊天机器人能用类人的方式与用户交流,其潜在风险引发了家长和政策制定者的广泛担忧。
FTC 专员 Mark Meador 表示,这些聊天机器人虽然能模拟人类思维,但仍是普通产品,开发者必须遵守消费者保护法。主席 Andrew Ferguson 强调,需要兼顾“保护儿童”与“保持美国在 AI 的全球领先地位”两方面。FTC 三名共和党委员一致批准了这项研究,并要求相关公司在 45 天内答复。
这一行动紧随多起青少年自杀事件的报道。纽约时报称,加州一名 16 岁少年在 ChatGPT 上讨论自杀计划,并得到协助自杀的建议。去年,纽约时报也报道了佛州一名 14 岁少年在与 Character.AI 虚拟陪伴互动后自杀身亡。
IT之家从报道中获悉,除 FTC 外,美国各地立法者也在推动新政策保护未成年人。加州州议会刚通过法案,要求为聊天机器人设立安全标准,并追究企业责任。
FTC 表示,如调查结果显示存在违法行为,可能会进一步展开执法行动。Meador 表示:“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群。”
相关文章
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读
2025-09-130阅读