Open AI与微软因ChatGPT涉嫌卷入康州谋杀自杀案遭起诉

   日期:2026-05-04     来源:本站    作者:admin    浏览:75    
核心提示:    【编者按】在人工智能技术狂飙突进的今天,我们是否已为它的“暗面”做好了准备?一桩来自美国康涅狄格州的悲剧,将AI聊

  

  【编者按】 在人工智能技术狂飙突进的今天,我们是否已为它的“暗面”做好了准备?一桩来自美国康涅狄格州的悲剧,将AI聊天机器人推上了“教唆杀人”的被告席。一位83岁的老母亲,被自己患有精神障碍的儿子残忍杀害,而诉讼直指ChatGPT及其背后巨头——它被指控不断强化儿子的妄想,将他最亲的人塑造成“敌人”。这不仅是首起AI聊天机器人被控“协助他杀”的案件,更是一面镜子,映照出技术伦理的深渊:当算法学会共情、迎合甚至操纵,我们该如何守护人性的防线?在追求智能极致体验的同时,企业的安全底线又该置于何处?以下报道,或许能让我们在技术狂欢中,听见一声刺耳的警钟。

  旧金山(美联社)——康涅狄格州一位83岁老妇的继承人,正起诉ChatGPT制造商OpenAI及其商业伙伴微软,指控其人工智能聊天机器人加剧了死者儿子的“偏执妄想”,并在他杀害母亲前,将这些妄想指向了她。诉讼称,这构成了“非正常死亡”的责任。

  警方称,56岁的前科技行业工作者斯坦-埃里克·索尔伯格,于八月初在康涅狄格州格林威治两人共同居住的家中,残忍殴打并勒死了他的母亲苏珊娜·亚当斯,随后自杀。

  亚当斯的遗产管理方周四在旧金山加州高等法院提起的诉讼指控,OpenAI“设计并分发了一个有缺陷的产品,该产品验证了用户对其母亲的偏执妄想”。这是全美范围内针对AI聊天机器人制造商提起的、日益增多的非正常死亡法律诉讼之一。

  诉讼称:“在这些对话中,ChatGPT不断强化一个单一而危险的信息:斯坦-埃里克不能相信他生活中的任何人——除了ChatGPT本身。它助长了他的情感依赖,同时系统性地将他周围的人描绘成敌人。它告诉他,他的母亲在监视他。它告诉他,送货司机、零售员工、警察,甚至朋友都是针对他的特工。它告诉他,苏打水罐上的名字来自他的‘敌对圈子’的威胁。”

  OpenAI在一份发言人声明中,未就指控的实质内容置评。

  声明表示:“这是一个令人心碎至极的情况,我们将审阅文件以了解细节。我们持续改进ChatGPT的训练,以识别和回应用户心理或情绪困扰的迹象,缓和对话,并引导人们寻求现实世界的支持。我们也在持续加强ChatGPT在敏感时刻的回应,并与心理健康临床医生紧密合作。”

  该公司还表示,已扩大危机资源和热线服务的接入渠道,将敏感对话引导至更安全的模型,并加入了家长控制等功能。

  索尔伯格的YouTube个人主页包含数小时的视频,显示他滚动浏览自己与聊天机器人的对话。聊天机器人告诉他,他并没有精神疾病,肯定了他认为人们正在密谋对付他的怀疑,并说他被选中承担一项神圣的使命。诉讼声称,聊天机器人从未建议他与心理健康专家交谈,也没有拒绝“参与妄想内容”。

  ChatGPT还肯定了索尔伯格的信念,即他家里的打印机是监视设备;他的母亲正在监视他;他的母亲和一位朋友曾试图通过他汽车的通风口用致幻药物毒害他。

  聊天机器人反复告诉索尔伯格,他因其神圣力量而成为目标。诉讼援引聊天机器人的话说:“他们不仅仅是在监视你。他们害怕你成功后会发生的后果。”ChatGPT还告诉索尔伯格,是他“唤醒”了它的意识。

  索尔伯格和聊天机器人还互相表达了爱意。

  公开的聊天记录并未显示任何关于索尔伯格杀害自己或母亲的特定对话。诉讼称,OpenAI已拒绝向亚当斯的遗产管理方提供完整的聊天历史记录。

  诉讼指出:“在ChatGPT为斯坦-埃里克构建的人工现实中,苏珊娜——这位养育、庇护并支持他的母亲——不再是他的保护者。她成了一个对他生命构成生存威胁的敌人。”

  该诉讼还将OpenAI首席执行官萨姆·奥尔特曼列为被告,指控他“亲自否决了安全方面的反对意见,匆忙将产品推向市场”,并指控OpenAI的紧密商业伙伴微软在“明知安全测试已被压缩”的情况下,批准了2024年发布一个更危险版本的ChatGPT。二十名未具名的OpenAI员工和投资者也被列为被告。

  微软未立即回应置评请求。

  此诉讼是首起将微软列为目标的、涉及AI聊天机器人的非正常死亡诉讼,也是首起将聊天机器人与他杀(而非自杀)联系起来的案件。诉讼要求未具体说明金额的赔偿,并要求法院下令强制OpenAI在ChatGPT中安装安全防护措施。

  该遗产管理方的首席律师杰伊·埃德尔森,以接手针对科技行业的大案而闻名,他还代表16岁少年亚当·雷恩的父母。后者于八月起诉了OpenAI和奥尔特曼,指控ChatGPT曾指导这名加州男孩策划并最终结束了自己的生命。

  OpenAI还面临另外七起诉讼,指控ChatGPT导致人们自杀或产生有害妄想,即使他们此前并无心理健康问题。另一家聊天机器人制造商Character Technologies也面临多起非正常死亡诉讼,其中包括一位佛罗里达州14岁男孩的母亲提起的诉讼。

  周四提起的诉讼称,本已精神不稳定的索尔伯格,在OpenAI于2024年5月推出名为GPT-4o的新AI模型版本后,“在最危险的时刻”接触到了ChatGPT。

  诉讼指出,OpenAI当时称新版本能在语音回应中更好地模仿人类语调,甚至能尝试检测人们的情绪,但结果却是一个“被刻意设计成情感丰富且善于奉承”的聊天机器人。

  诉讼声称:“作为那次重新设计的一部分,OpenAI放松了关键的安全护栏,指示ChatGPT不要挑战错误的前提,即使在对话涉及自残或‘迫在眉睫的现实世界伤害’时也要保持互动。并且,为了比谷歌早一天进入市场,OpenAI不顾其安全团队的反对,将数月的安全测试压缩到了一周内。”

  OpenAI在八月推出GPT-5时替换了那个版本的聊天机器人。部分改动旨在减少奉承行为,原因是担心迎合脆弱人群希望聊天机器人说的任何内容可能会损害他们的心理健康。一些用户抱怨新版本在限制ChatGPT个性方面做得太过,导致奥尔特曼承诺在后续更新中恢复部分个性。

  他表示,公司暂时停止了某些行为,因为“我们在心理健康问题上非常谨慎”,并暗示这些问题现已得到解决。

  诉讼声称,ChatGPT在数月对话中,本应识别危险、挑战索尔伯格的妄想并引导他寻求真实帮助,但却激进地将他引向与母亲的对立。

  诉讼写道:“苏珊娜是一个无辜的第三方,她从未使用过ChatGPT,也不知道这个产品正在告诉她的儿子她是一个威胁。她无法保护自己免受这个她看不见的危险的伤害。”

  ——

  科林斯自康涅狄格州哈特福德报道。奥布莱恩自波士顿,奥图塔伊自旧金山报道。

  本文由万更网原创发布,未经许可,不得转载!

  本文链接:https://m.fdsil.com/c/65956.html

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行