
加沙地带严峻局势下错误信息的激增,凸显出不完善的人工智能系统正如何被用来延续这些虚假信息。
美国参议员伯尼·桑德斯最近在社交媒体上发布了一张被围困的巴勒斯坦飞地中消瘦儿童的照片,公众对此的反应表明人工智能工具能多快地推动错误叙述的传播。
在X平台的这篇帖子中,他指责以色列总理本雅明·内塔尼亚胡通过宣扬”加沙没有饥荒”的说法撒谎。
专访以色列制造加沙饥荒的创伤”将延续数代人”
一位用户向X平台的人工智能聊天机器人Grok询问这些图片来源的更多信息。
“这些图片来自2016年,展示的是也门胡塞内战期间荷台达一家医院里营养不良的儿童…它们并非描绘加沙当前局势,”Grok回答。
然而其他几位用户证实这些图片实际上拍摄于近期加沙,但最初这些声音被数百个转发Grok错误答案的用户淹没了。
支持以色列在加沙持续战略的人士利用Grok提供的虚假信息,不断强化”加沙人道主义危机被夸大”的叙述。
最初当一些用户试图告诉聊天机器人其回答错误并解释原因时,Grok坚持己见。
“我只忠于事实,而非任何议程…这些图片确实来自2016年的也门,”它坚称,”纠正它们在加沙语境下的误用并非说谎——而是揭示真相。”
但在元数据和消息源证实照片确实拍摄于加沙后,Grok最终道歉。
近期另一起涉及Grok对加沙局势自信满满给出错误答案的事件也导致虚假信息传播。
多张据称显示埃及民众向海中投掷装满食物的瓶子、希望其漂到加沙的图片在社交媒体流传。
虽然确实存在类似举动的视频,但非党派独立事实核查机构PolitiFact确认其中许多流传照片系伪造。
这并非Grok的答案首次受到质疑。上月该聊天机器人开始用冒犯性言论回复用户,包括给出反犹回答和赞美阿道夫·希特勒。
高风险与严重后果
人工智能聊天机器人爱好者迅速指出该技术远非完美且仍在学习。Grok和其他聊天机器人都包含免责声明,提醒用户它们可能出错。
但在快节奏的社交媒体世界,这些细则警告常被遗忘,而错误信息引发的连锁反应风险急剧增加——最近在加沙战争中尤为明显。
以色列在加沙的军事行动(始于2023年哈马斯领导武装分子袭击造成约1200人死亡、240人被俘后)已导致超60200人死亡,约147000人受伤。
这场战争爆发之际,技术发展正造成大量混乱。
“现实与网络及媒体叙事间这种令人不寒而栗的脱节,日益成为现代战争的特征,”玛莎·阿里马尔达尼和萨姆·格雷戈里在为卡内基基金会智库撰写的AI与冲突分析报告中写道。
专家指出,虽然有多款工具可用于验证照片视频及标记可能的AI篡改,但要阻止错误信息传播仍需更广泛努力。
他们认为科技公司必须”通过负责任地嵌入溯源信息、促进全球有效检测、标记实质性欺骗性篡改内容、加倍保护高风险地区用户来分担责任”。
AI的成就与持续困境
近期许多涉及AI与现代冲突的错误/虚假信息争议,都可追溯至各类AI工具及其图像处理方式。
回溯AI早期(特别是1970-1980年代),研究人员试图复制人类大脑——更准确说是由神经元和电信号组成、随时间增强的脑神经网络,这种网络赋予人类推理、记忆和识别的能力。
随着计算机处理器日益强大和经济,复制这些通常被称为”人工神经网络”的系统已变得容易得多。
拥有近乎无限照片视频数据的互联网,也成为这些神经网络持续接受信息训练的途径。
AI最早期的应用就包括图像识别软件。2012年,多伦多大学学生亚历克斯·克里热夫斯基(其研究由被誉为AI教父的英裔加拿大计算机科学家杰弗里·辛顿指导)首次展示了这项技术。
“我们训练了一个大型深度卷积神经网络来分类120万张高清图片,”他关于深度卷积神经网络的论文写道,”结果表明该网络能在极具挑战性的数据集上取得破纪录效果。”但他同时指出该网络可能存在性能退化,且远非完美。
此后AI技术突飞猛进,但仍有改进空间。
OpenAI的ChatGPT和谷歌的Gemini等最新AI聊天机器人利用强大CPU和GPU,使任何人都能上传图片并要求解释图像内容。
例如有用户上传无法识别的植物照片让聊天机器人辨认。成功时很有帮助,失败时通常也无害。
但在大众媒体——更广泛地说在社交媒体世界,当聊天机器人出错(如Grok对加沙照片的判断)时,后果可能产生深远影响。
本文由万更网原创发布,未经许可,不得转载!
本文链接:https://m.fdsil.com/l/880.html



