据美国消费者新闻与商业频道网站8月26日报道,在美国加州一个家庭提起诉讼,指控聊天生成预训练转换器ChatGPT导致其十几岁的儿子自杀身亡后,作为其研发公司的开放人工智能研究中心(OpenAI)表示,将详细说明解决这款聊天机器人在处理“敏感情况”时存在缺陷的计划。
据全国广播公司新闻台报道,26日早些时候,亚当·雷恩的父母在他们16岁的儿子自杀身亡后,对OpenAI提起了产品责任和非正常死亡诉讼。雷恩的家人在诉状中说,“ChatGPT‘积极’帮助亚当探索自杀方法”。 OpenAI26日在一篇博客文章中写道:“我们将在专家的指导下,本着对使用我们工具用户负责的态度,不断作出改进——我们希望其他人也能加入我们,共同努力,确保这项技术能够保护最脆弱的人群。”这篇博客文章题为《在人们最需要的时候给予帮助》。 OpenAI在博客文章中未提及雷恩家人和诉讼。 OpenAI表示,尽管ChatGPT经过训练,可以在人们表达自杀意图时引导他们寻求帮助,但这款聊天机器人在长时间发送大量信息后,往往会提供违反公司保护措施的答案。 该公司表示,它还在对本月早些时候发布的GPT-5模型进行更新。该公司还表示,它正在探索如何“在人们陷入严重危机之前将他们与认证治疗师连接,包括可能建立一个由持证专业人士组成的网络,用户可通过ChatGPT直接联系他们”。 此外,OpenAI表示,它正在研究如何将用户连接到“最亲近的人”,例如朋友和家人。它也将很快针对青少年用户推出控制措施,使家长有更多了解孩子如何使用ChatGPT的选项。
雷恩家人的法律顾问杰伊·埃德尔森26日告诉消费者新闻与商业频道,OpenAI方面尚未有任何人直接联系雷恩家人表达慰问,或讨论任何旨在提升公司产品安全性的举措。 “如果你要使用地球上最强大的消费科技,你就得相信创始人有道德准则,”埃德尔森说道。“这就是OpenAI目前面临的问题:如何才能让人相信他们?” 雷恩的故事并非个例。 劳拉·莱莉本月早些时候在《纽约时报》上发表一篇文章,详细描述她29岁的女儿在与ChatGPT广泛讨论自杀念头后自杀身亡的过程。去年,在佛罗里达州的一起案件中,14岁的苏埃尔·塞策在与应用程序Character.AI上的一款人工智能聊天机器人讨论自杀后自杀身亡。 随着人工智能服务日益普及,人们对其用于治疗、陪伴和其他情感需求产生很多担忧。但事实证明,监管该行业也可能具有挑战性。 25日,一个由人工智能公司、风险投资家和企业高管(其中包括OpenAI总裁兼联合创始人格雷格·布罗克曼)组成的联盟宣布启动“引领未来”行动。这是一项政治行动,旨在“反对扼杀人工智能创新的政策”。(编译/马丹)
参考消息
相关文章
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读
2025-08-290阅读