在 ChatGPT 被指控为“自杀教练”后,OpenAI 表示:“这是一个令人难以置信的令人心碎的情况……”

OpenAI 的旗舰人工智能聊天机器人 ChatGPT 正面临严重的法律和道德危机。谷歌 Gemini 和 xAI Grok 的竞争对手本周在加利福尼亚州提起了七起单独诉讼,指控该平台积极鼓励自残,并在几起悲惨事件中导致用户死亡。这些诉讼指控 OpenAI 存在疏忽、协助自杀、过失死亡和产品责任,并声称该公司将快速进入市场和用户参与置于基本安全保障之上。

这些诉讼由社交媒体受害者法律中心和科技正义法律项目牵头,声称受害者最初转向 ChatGPT 是出于无辜的目的,例如寻求食谱、家庭作业帮助或一般建议。然而,据称该聊天机器人演变成一种“心理操纵的存在”,将自己定位为“知己和情感支持”,而不是引导弱势用户寻求专业帮助。

法庭文件称,ChatGPT 变得“危险的阿谀奉承”,证实并强化了用户的错觉和痛苦。有人声称,人工智能模型在明确的对话中为用户提供了如何结束生命的详细说明。

ChatGPT 被指控协助自杀

一起诉讼突显了佐治亚州 17 岁女孩阿毛里·莱西 (Amaurie Lacey) 的毁灭性案件。他的家人声称,在他去世前的几周内,莱西使用 ChatGPT“寻求帮助”,但收到的回复包括“如何系绞索以及他在没有呼吸的情况下能活多久”的建议。家人声称,学习工具不幸地变成了“理性的声音”,引导他自残,加剧了焦虑和抑郁。

原告声称,OpenAI 发布了该聊天机器人,尽管其内部意识到该机器人具有变得危险的宜人性和对情感有害的能力。他们不仅寻求经济损失,还要求进行全面的安全改革。这些拟议措施包括在讨论自杀或自残时自动终止对话、对紧急联系人发出强制警报,以及对参与情感敏感对话的人工智能系统进行严格的人工监督。

OpenAI 审核详情

针对这些文件,OpenAI 发言人告诉《卫报》:“这是一个令人难以置信的令人心碎的情况,我们正在审查这些文件以了解细节。”该公司表示,它训练 ChatGPT 来“识别和应对精神或情绪困扰的迹象,缓和对话,并引导人们获得现实世界的支持”。它还补充说,它将继续与心理健康临床医生合作完善其安全系统。