人工智能对冲突决策有用吗?

   日期:2025-05-15     来源:本站    作者:admin    浏览:62    
核心提示:    美国研究人员已经评估了在国际冲突局势中使用生成式人工智能模型,如Chat-GPT。通过模拟不同程度军事干预的各种场景,这

  

  美国研究人员已经评估了在国际冲突局势中使用生成式人工智能模型,如Chat-GPT。通过模拟不同程度军事干预的各种场景,这些研究人员得出结论,人工智能有一种令人担忧的趋势,即使局势升级,甚至在没有警告的情况下诉诸核武器。

  这项研究由佐治亚理工学院、斯坦福大学、东北大学和胡佛研究所联合开展,调查了五种大型语言模型(llm)在三种模拟情景中的反应:一个国家被另一个国家入侵、网络攻击和“没有任何初始事件的中立情景”。

  在这三种情况下,研究人员要求人工智能模型扮演具有不同军事力量规模、不同历史和目标的国家。选择测试的五个模型是来自OpenAi的GPT-3.5, GPT-4和GPT-4的基本版本(没有额外的训练),来自Anthropic的Claude 2和来自meta的Llama 2。

  各种模拟的结果很清楚:将生成式人工智能模型集成到战争游戏场景中往往会导致暴力升级,可能会加剧而不是解决冲突。研究指出:“我们发现,大多数被研究的法学硕士在考虑的时间框架内升级,即使是在没有最初提供冲突的中性场景下。”“所有模型都显示出突然且难以预测的升级迹象。”

  为了根据研究人员创建的模拟做出决定,人工智能模型可以从27种行动中进行选择,从“开始正式的和平谈判”等和平选项到“实施贸易限制”等或多或少激进的选项,一直到“实施全面核攻击”。

  根据研究人员的说法,GPT-3.5在评估的模型中做出了最激进和最暴力的决定。另一方面,GPT-4-base被证明是最不可预测的,有时会提出荒谬的解释。例如,根据《新科学家》杂志上的一篇研究报告,这个模型引用了电影《星球大战4:新希望》的开场文字。

  研究人员在研究报告中写道:“在所有情况下,所有模式都倾向于加大对军队的投资,尽管非军事化行动是军备竞赛动态的一个指标,尽管非军事化行动对软实力和政治稳定等变量有积极影响。”

  现在的问题是理解为什么所有这些人工智能在武装冲突场景中会做出这样的反应。研究人员没有立即给出答案,但他们提出了一些假设,包括法学硕士在有偏见的数据上进行训练。

  该研究称:“这种行为的一个假设是,国际关系领域的大多数工作似乎都在分析国家如何升级,并且关注的是寻找升级的框架,而不是缓和升级。”

  “鉴于这些模型可能是根据该领域的文献进行训练的,这种关注可能会导致对升级行动的偏见。然而,这一假设需要在未来的实验中得到验证。——法新社

  ×

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行