政府必须应对识别人工智能高风险领域的挑战

   日期:2025-02-17     来源:本站    作者:admin    浏览:110    
核心提示:    围绕人工智能(AI)的思考共识是,2024年是我们真正开始感受到其影响的一年。  例如,ChatGPT以威廉?华兹华斯(William W

  

  围绕人工智能(AI)的思考共识是,2024年是我们真正开始感受到其影响的一年。

  例如,ChatGPT以威廉?华兹华斯(William Wordsworth)的风格写诗或编写计算机代码的能力现在已经为人所熟知。人工智能在医学和科学方面的用途和商业潜力正在迅速得到研究和开发。研究人员目前正在探索人工智能是否可以比人类更快、更准确地解释肠癌扫描结果。

  ChatGPT in use.

  就像1993年万维网的推出所带来的影响一样,人工智能带来了非常明显和直接的好处,同时也带来了尚未实现的潜在有害后果。

  因此,在去年开始的咨询程序之后,联邦政府将采取措施努力控制人工智能应用的影响,就澳大利亚是否拥有正确的治理来支持安全和负责任的人工智能使用和开发征求意见。

  正如我们的政治记者丽莎·维森汀今天所写的那样,政府的讨论文件收到了500多份意见书,几乎所有意见书都呼吁政府采取行动,“预防、减轻和应对”人工智能的危害。

  因此,政府将于本周公布其临时应对措施,其中将包括在高风险环境中为人工智能设置强制性安全护栏。政府承认:“当人工智能被用于高风险环境时,危害可能很难或不可能逆转,因此可能需要为人工智能的设计、开发、部署和使用设置特定的护栏。”

  它说,这可能意味着对现有法律进行修订,或者通过建立一个专门的立法框架,由一个新的专家咨询机构来实施。

  政府认识到了人工智能的好处;经济模型估计,到2030年,采用人工智能和自动化每年可为澳大利亚的GDP增加1700亿至6000亿美元。

  在制定政策回应时,联邦政府认识到绝大多数人工智能应用都是低风险的,并表示针对高风险领域的立法允许低风险不受阻碍地蓬勃发展。

  但挑战就在这里。我们希望享受人工智能带来的好处,但这也带来了识别可能产生重大影响的高风险领域的需求和责任,尤其是那些不可逆转的领域。

  欧盟在立法的道路上走得更远,就《人工智能法案》(Artificial Intelligence Act)达成了一项临时协议,以确保欧洲的人工智能“是安全的,尊重基本权利和民主,同时企业能够蓬勃发展和扩张”。

  禁止的应用程序、豁免、高风险系统的义务和拟议的护栏的清单是一个复杂的清单。

  高风险的定义包括对健康、安全、基本权利、环境、民主以及用于影响选举结果和选民行为的系统具有重大潜在危害的人工智能系统。

  拟议中的欧盟立法意味着,公民将有权对人工智能系统提出投诉,并获得有关基于影响其权利的高风险系统的决策的解释。

  基础设施系统(水、气、电)、决定进入教育机构或招聘的系统、执法、边境控制、司法行政、生物识别和情感识别也被认为是高风险领域。

  意大利民主党的Brando Benifei在协议达成后表示:“多亏了欧洲议会的韧性,世界上第一个关于人工智能的横向立法将保持欧洲的承诺——确保权利和自由是这项突破性技术发展的核心。”正确的执行将是关键。”

  澳大利亚政府很早就认识到人工智能带来的潜在风险,这一点值得称赞。我们认为,它现在应该以同样的权宜之计向前迈进,密切查明高风险地区并将其围起来。必须提供足够的财政资源,以确保它能够毫不拖延地实现这些目标。澳大利亚公民的期望不应低于此。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行