
滑铁卢大学的一项研究发现,人们很难区分真实图像和人工智能生成的图像,准确率只有61%,这引发了人们对视觉信息可靠性的担忧,以及对识别人工智能生成内容的工具的需求。来源:SciTechDaily.com
研究表明,近40%的调查参与者被人工智能生成的图像欺骗。
如果你最近很难弄清楚一个人的图像是真实的还是通过人工智能(AI)生成的,那么你并不孤单。
滑铁卢大学研究人员的一项新研究发现,人们比预期更难以区分谁是真人,谁是人造的。
滑铁卢大学的研究向260名参与者提供了20张未标记的照片:其中10张是从谷歌搜索中获得的真人照片,另外10张是由两种常用的生成图像的人工智能程序Stable Diffusion或DALL-E生成的。
参与者被要求将每张图像标记为真实的或人工智能生成的,并解释他们做出这个决定的原因。只有61%的参与者能够分辨出人工智能生成的人和真实人物之间的区别,远低于研究人员预期的85%的门槛。
研究中使用的三张人工智能生成的图片。资料来源:滑铁卢大学
误导性指标与人工智能的快速发展
“人们并不像他们认为的那样擅长区分,”滑铁卢大学计算机科学博士候选人、该研究的主要作者安德里亚·波科尔说。
在寻找人工智能生成的内容时,参与者会注意手指、牙齿和眼睛等细节,作为可能的指标,但他们的评估并不总是正确的。
Pocol指出,这项研究的本质是允许参与者仔细地看照片,而大多数互联网用户只是匆匆地看照片。
“那些只是杞人忧天或没有时间的人不会注意到这些暗示,”Pocol说。
Pocol补充说,人工智能技术的发展速度极快,这使得人们特别难以理解人工智能生成的图像可能造成的恶意或邪恶行为。学术研究和立法的步伐往往跟不上:自2022年底开始研究以来,人工智能生成的图像变得更加逼真。
人工智能产生的虚假信息的威胁
这些人工智能生成的图像作为一种政治和文化工具尤其具有威胁性,任何用户都可以在尴尬或妥协的情况下创建公众人物的假图像。
“虚假信息并不新鲜,但虚假信息的工具一直在不断变化和发展,”Pocol说。“这可能会发展到一个地步,不管人们接受了多么高的训练,他们仍然很难区分真实的图像和伪造的图像。这就是为什么我们需要开发工具来识别和应对这种情况。这就像是一场新的人工智能军备竞赛。”
这项名为“眼见为实:深度造假、人工智能生成的人类和其他非真实媒体现状调查”的研究发表在《计算机图形学进展》杂志上。
参考文献:《眼见不实:深度造假、人工智能生成的人类和其他非真实性媒体现状调查》,作者Andreea Pocol、Lesley Istead、Sherman Siu、Sabrina Mokhtari和Sara Kodeiri, 2023年12月29日,《计算机图形学进展》。DOI: 10.1007 / 978 - 3 - 031 - 50072 - 5 - _34





