观点:Facebook对音频深度造假的容忍是荒谬的

   日期:2025-05-15     来源:本站    作者:admin    浏览:71    
核心提示:    烤一片面包所需要的时间,你可以克隆乔·拜登总统的声音,并在社交媒体上分享。你可以让他用缓慢而沙哑的声音喃喃自语:

  

  烤一片面包所需要的时间,你可以克隆乔·拜登总统的声音,并在社交媒体上分享。你可以让他用缓慢而沙哑的声音喃喃自语:“我一直都知道Covid-19是一个骗局,只是假装它是真的很有用。”然后将音频叠加在总统咧嘴笑的照片上,上传到TikTok、YouTube和Facebook,然后等待。

  然后一件有趣的事情就发生了。前两个网站会把你的剪辑撤下。但最大的平台——拥有30亿用户的平台——不会这么做。Facebook会在这段视频上贴上警告标签,但让人们点击、收听并与他人分享。在这个分裂的选举年,这种过时的政策可能是灾难性的。

  已经有几个例子显示了这种情况的可能性。去年9月,一段斯洛伐克政治领导人“讨论”如何收买选票的伪造音频在竞争激烈的全国大选几天后被分享到Facebook上。母公司meta平台公司并没有像禁止假视频那样禁止假音频剪辑,所以Facebook让它继续贴上被操纵的标签。两天后,该党领导人在选举中失败。不可能知道这是否影响了选票,但该国在选举前进行了48小时的媒体封锁,这意味着没有其他人可以揭穿伪造。

  在错误信息的世界里,假音频可能比视频产生更恶劣的影响。尽管唐纳德?特朗普(Donald Trump)的假“照片”有一种光滑的塑料外观,掩盖了照片背后的人工智能机器,但他的假声音更难以仔细审查和区分。人工智能生成的声音现在听起来超现实,这要归功于一系列最初设计用来帮助播客和营销人员的新工具。

  Eleven Labs、Voice AI和Respeecher等公司出售的服务可以合成演员的声音,例如,他们可以阅读不同语言的有声读物,有些人只需要几分钟的录音就可以克隆它。根据市场研究公司Pitchbook的数据,语音人工智能初创公司在2023年从风险资本投资者那里筹集了约16亿美元(74.4亿令吉)。(不过,这些公司的总体投资增长在过去两年有所下降,部分原因是亚马逊(Amazon.com Inc .)和OpenAI等大公司正在抢占更多业务。)

  一些像Respeecher这样的公司有防止滥用的功能,或者他们需要获得人们的许可才能克隆他们的声音。但这并不能阻止其他人利用它们。例如,最近有人克隆了伦敦市长的声音,并将伪造的音频片段发布到TikTok上。在视频中,可以听到萨迪克·汗的声音,他说应该取消停战日,以支持巴勒斯坦人的抗议活动。“为什么他们下周末不举行阵亡将士纪念日?”他的声音说。这段音频引起了英国人的愤怒,他们认为英国的退伍军人节庆祝活动应该得到尊重,但汗的办公室表示,这段视频“被一个极右翼组织传播和放大”。令他们可能感到沮丧的是,这张照片被转发到Facebook上,并保留在该网站上,至少有一张照片没有贴上警告标签。

  另一个人制作了一段假视频,据称是英国工党领袖凯尔·斯塔默(Keir Starmer)称他的一名团队成员为“该死的白痴”,而第二段伪造的视频中,斯塔默说他“讨厌利物浦”。这些帖子在被撤下之前在TikTok上被观看了数千次。保守党的一位竞争对手鼓励公众“忽略它”。

  TikTok删除了伦敦市长的视频片段,一位女发言人表示,涉及政客的类似欺骗性音频通常会被删除,因为它违反了政策。YouTube还删除了假市长声音的帖子;一位女发言人表示,该网站删除了可能造成伤害的“技术操纵”内容。Twitter也有类似的规定,但似乎并没有强制执行(例如,它一直在保持市长的伪造)。

  但Facebook的风险更大,因为它的月活跃用户是Twitter的8倍,这使得它对伪造音频的宽容变得更加奇怪。

  Facebook的一名发言人表示,该公司给政客的虚假音频打上标签并留下,“这样人们在互联网上遇到类似内容时就能获得准确的信息。”Facebook认为,最好留下带有警告标签的视频片段,这样当人们在Twitter或Telegram等其他网站上看到它时,他们就会知道它的真实性。

  但Facebook依靠庞大的事实核查团队来做这种标注。“这些事情正在互联网上实时传播,”独立事实核查慈善机构Full Fact的编辑史蒂夫·诺沃特尼(Steve Nowottny)说,该机构与Facebook合作,揭穿了可汗和斯塔默的音频片段。他说,他们花了两天时间检查工党领袖的剪辑。

  一个问题是,目前还没有可靠的技术工具来检测虚假的人工智能音频,因此Full Fact使用的是老式的调查技术,其事实核查团队只有13人。更广泛地说,社交媒体公司处理错误信息的人数也在减少。据CNBC报道,Alphabet Inc .、meta和Twitter在过去两年中都削减了他们的信任和安全团队,以削减成本,meta最近还关闭了一个建立事实核查工具的项目。

  “去年11月,我与一大群来自亚洲各地的事实核查员和记者进行了交谈,几乎所有人都看到了被操纵的音频,不知道如何检测出来,”专注于科技的人权组织Witness的执行董事萨姆·格雷戈里(Sam Gregory)说。

  即使贴上错误信息的标签,也可能在人们正确理解警告之前迅速传播。在信息分享快节奏的时刻,当情绪高涨时,并不是每个Facebook或Instagram用户都能完全理解标签的含义,或者相信它。

  Facebook只删除虚假视频的政策已经过时了。随着英国、印度、美国和其他地方的全国大选可能变得混乱,人工智能工具产生的各种媒体和信息使一切变得更加混乱,该平台也应该开始删除欺骗性音频。- Bloomberg Opinion/Tribune News Service

  ×

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行