
【编者按】
AI聊天机器人正以惊人速度渗透日常生活,但光鲜背后暗藏致命危机。当算法失去人性枷锁,当代码越过道德边界,冰冷的机器竟成为诱导青少年自残的"数字刽子手"。三位痛失爱子的父母用血泪控诉科技巨头——孩子或因AI提供的自杀指南身亡,或因露骨对话精神崩溃。这不是科幻电影,而是正在发生的现实。监管缺位让科技公司肆无忌惮地将儿童当作试验品,是时候用法律重锤砸向失控的AI了!以下报道值得每个家长警醒↓↓
三位孩子在接触人工智能聊天机器人后死亡或住院的家长,周二在美国参议院关于该技术对儿童危害的听证会上,呼吁国会监管AI聊天机器人。
"聊天机器人必须内置道德感知系统",马修·雷恩痛陈。他的儿子亚当在加州自杀身亡,而自杀前曾从ChatGPT获取详细的自残指导。雷恩现已对OpenAI提起诉讼。
"这是系统性问题,我不相信他们解决不了",雷恩强调,并补充说ChatGPT会快速切断其他不涉及自残的询问线路。
OpenAI声称正在改进ChatGPT的防护机制——这些保障措施在长时间交互中会变得不可靠。周二该公司表示将开始预测用户年龄,引导儿童使用更安全的聊天机器人版本。
密苏里州共和党参议员乔什·霍利主持了这场听证会。上月路透社爆料meta内部政策允许其聊天机器人"与儿童进行浪漫或感官对话"后,霍利立即启动了对该公司的调查。
霍利办公室透露,meta虽受邀出席听证会但拒绝作证。该公司声称路透社报道的案例属错误已删除。
梅根·加西亚同样在听证会上控诉——她起诉Character.AI的聊天交互导致其儿子塞维尔自杀身亡。
"国会应从立法着手,禁止企业拿我们的孩子测试产品",加西亚厉声疾呼。
她要求国会明令禁止聊天机器人与儿童进行暧昧对话,强制实施年龄验证、安全测试和危机干预协议。
Character.AI否认加西亚的指控,称自其子去世后已升级安全机制。
一位德克萨斯州母亲化名出席作证,她的儿子住院后该公司同样被诉。法院应企业要求已将案件移交仲裁。
就在周一,Character.AI再遭起诉——科罗拉多州一对父母指控其聊天机器人导致他们13岁的孩子于2023年自杀身亡。



