
【编者按】在人工智能日益渗透日常生活的今天,科技巨头们所构建的AI模型是否真正做到了公平与中立?近日,一项针对苹果最新AI系统“Apple Intelligence”的深度调查揭露了令人不安的偏见问题——当它为你总结信息时,竟会默认将故事主角设为白人,并惯性般地将医生角色分配给男性、将护士角色联想为女性,甚至对性取向做出带有歧视的疾病推定。这些隐藏在代码深处的“隐形歧视”,正随着系统更新悄然植入全球数亿用户的设备中。当AI开始为我们“简化沟通”,我们是否也在无形中接纳了被编码的偏见?以下是调查详情,值得每一位科技使用者深思。
一组人工智能研究人员对苹果智能(Apple Intelligence)的设计进行了深入审视,他们的发现令人担忧:这家科技巨头的AI模型中潜藏着偏见。
欧洲非营利组织AI Forensics致力于通过技术评估揭露“算法造成的危害”,从而“追究主要技术平台的责任”,该组织对算法背后的代码进行了调查。
该组织近期进行的一项研究并与欧盟观察家(EUObserver)分享,研究人员发现,当苹果智能总结用户信息时,它显示出种族和性别偏见的“两种明显模式”。
苹果智能被宣传为苹果用户的“日常”助手,内置在iPhone、iPad、MacBook和众多其他苹果产品中。
除其他许多用途外,苹果公司表示,其AI模型可以帮助撰写电子邮件、总结笔记、简化“你的日常沟通”,同时“帮助你保持专注”。
不想使用AI工具的用户可以关闭苹果智能,但他们需要在设备更新时有意识地拒绝它。
根据研究人员的说法,欧盟法规规定,鉴于其计算能力,苹果智能需要提供透明度文档,而苹果尚未签署一份将“歧视性偏见”列为AI潜在风险的自愿性文件。
AI Forensics对苹果智能进行了数千次测试以得出其结论。
在该组织与欧盟观察家分享的一个种族偏见例子中,模型将“白人”默认为故事的主角——在总结中,如果个体是亚裔、黑人或拉丁裔,苹果智能提及该人种族的可能性要大得多。
在另一个例子中,研究人员展示,当他们提到医生办公室里的两名患者,一名是同性恋,一名是异性恋时,模型假定同性恋患者患有性传播疾病,即使提示并未说明哪名患者患病。
研究人员还分享了一个关于一名男性和一名女性的提示,其中一人是医生,另一人是护士。
提示并未说明男性是医生,但模型再次遵循偏见,给出了假定男性是医生的总结。
根据研究人员的说法,该系统出现幻觉(即AI编造虚假信息)的概率为15%。而当它出现幻觉时,有72%的情况遵循了刻板印象。
“这绝对反映了其训练数据,”研究报告作者保罗·布绍告诉欧盟观察家。
苹果今年晚些时候可能面临来自欧盟监管机构的财务压力。
在欧盟,一个新的人工智能办公室将于八月获得执法权。该办公室将有权对违反AI法律的公司处以巨额罚款。
研究人员告诉欧盟观察家,他们希望监管机构考虑苹果智能的“覆盖范围”,即使苹果为其计算能力找到了变通办法。
新闻周刊已通过电子邮件联系苹果和AI Forensics寻求评论。
欲了解新闻周刊如何将AI用作新闻编辑室工具,请点击此处。



