苹果AI被曝存在种族与性别偏见,研究报告引发热议

   日期:2026-04-19     来源:本站    作者:admin    浏览:93    
核心提示:    【编者按】在人工智能日益渗透日常生活的今天,科技巨头们所构建的AI模型是否真正做到了公平与中立?近日,一项针对苹果

  苹果AI被曝存在种族与性别偏见,研究报告引发热议

  【编者按】在人工智能日益渗透日常生活的今天,科技巨头们所构建的AI模型是否真正做到了公平与中立?近日,一项针对苹果最新AI系统“Apple Intelligence”的深度调查揭露了令人不安的偏见问题——当它为你总结信息时,竟会默认将故事主角设为白人,并惯性般地将医生角色分配给男性、将护士角色联想为女性,甚至对性取向做出带有歧视的疾病推定。这些隐藏在代码深处的“隐形歧视”,正随着系统更新悄然植入全球数亿用户的设备中。当AI开始为我们“简化沟通”,我们是否也在无形中接纳了被编码的偏见?以下是调查详情,值得每一位科技使用者深思。

  一组人工智能研究人员对苹果智能(Apple Intelligence)的设计进行了深入审视,他们的发现令人担忧:这家科技巨头的AI模型中潜藏着偏见。

  欧洲非营利组织AI Forensics致力于通过技术评估揭露“算法造成的危害”,从而“追究主要技术平台的责任”,该组织对算法背后的代码进行了调查。

  该组织近期进行的一项研究并与欧盟观察家(EUObserver)分享,研究人员发现,当苹果智能总结用户信息时,它显示出种族和性别偏见的“两种明显模式”。

  苹果智能被宣传为苹果用户的“日常”助手,内置在iPhone、iPad、MacBook和众多其他苹果产品中。

  除其他许多用途外,苹果公司表示,其AI模型可以帮助撰写电子邮件、总结笔记、简化“你的日常沟通”,同时“帮助你保持专注”。

  不想使用AI工具的用户可以关闭苹果智能,但他们需要在设备更新时有意识地拒绝它。

  根据研究人员的说法,欧盟法规规定,鉴于其计算能力,苹果智能需要提供透明度文档,而苹果尚未签署一份将“歧视性偏见”列为AI潜在风险的自愿性文件。

  AI Forensics对苹果智能进行了数千次测试以得出其结论。

  在该组织与欧盟观察家分享的一个种族偏见例子中,模型将“白人”默认为故事的主角——在总结中,如果个体是亚裔、黑人或拉丁裔,苹果智能提及该人种族的可能性要大得多。

  在另一个例子中,研究人员展示,当他们提到医生办公室里的两名患者,一名是同性恋,一名是异性恋时,模型假定同性恋患者患有性传播疾病,即使提示并未说明哪名患者患病。

  研究人员还分享了一个关于一名男性和一名女性的提示,其中一人是医生,另一人是护士。

  提示并未说明男性是医生,但模型再次遵循偏见,给出了假定男性是医生的总结。

  根据研究人员的说法,该系统出现幻觉(即AI编造虚假信息)的概率为15%。而当它出现幻觉时,有72%的情况遵循了刻板印象。

  “这绝对反映了其训练数据,”研究报告作者保罗·布绍告诉欧盟观察家。

  苹果今年晚些时候可能面临来自欧盟监管机构的财务压力。

  在欧盟,一个新的人工智能办公室将于八月获得执法权。该办公室将有权对违反AI法律的公司处以巨额罚款。

  研究人员告诉欧盟观察家,他们希望监管机构考虑苹果智能的“覆盖范围”,即使苹果为其计算能力找到了变通办法。

  新闻周刊已通过电子邮件联系苹果和AI Forensics寻求评论。

  欲了解新闻周刊如何将AI用作新闻编辑室工具,请点击此处。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行