纽约:一家银行在抵押贷款决策中使用有偏见的人工智能(AI)输出。一家保险公司的人工智能产生了种族同质的广告图像。AI系统的用户会抱怨糟糕的体验。
根据上周四发布的一系列论文,这些只是人工智能对希望拥抱这一新兴技术的金融机构构成的潜在风险中的一小部分。
FS-ISAC是一家在全球金融机构之间分享网络情报的非营利组织,它的论文还强调了其他的陷阱,包括深度造假和“幻觉”,即大型语言模型将错误的信息呈现为事实。
尽管存在这些风险,金融服务信息共享和分析中心(FS-ISAC)概述了人工智能在金融公司的许多潜在用途,例如改善网络防御。该小组的工作概述了人工智能给银行、资产管理公司、保险公司和其他行业带来的风险、威胁和机遇。
FS-ISAC战略与创新副总裁迈克?西尔弗曼(Mike Silverman)表示:“这是我们的最佳实践、经验和知识的综合,同时也借鉴了其他论文的见解。”
在金融领域,人工智能正被用于恶意目的,尽管以相当有限的方式。例如,FS-ISAC表示,黑客制作了更有效的网络钓鱼邮件,通常通过ChatGPT等大型语言模型进行改进,旨在欺骗员工泄露敏感数据。西尔弗曼说,此外,深度伪造音频还会欺骗客户转移资金。
FS-ISAC还警告了数据中毒,即输入人工智能模型的数据被操纵以产生不正确或有偏见的决定,以及可用于犯罪目的的恶意大型语言模型的出现。
不过,据报道,这项技术也可以用来加强这些公司的网络安全。
西尔弗曼说,人工智能在异常检测或在计算机系统中挑出可疑的异常行为方面已经证明是有效的。
此外,该技术还可以自动执行日志分析等日常任务,预测潜在的未来攻击,并分析来自社交媒体、新闻文章和其他公共来源的“非结构化数据”,以识别潜在的威胁和漏洞。
为了安全地实施人工智能,FS-ISAC建议严格测试这些系统,持续监控它们,并在发生事故时制定恢复计划。- - - - - -布隆伯格
×