国防部警告:Anthropic公司“红线”成国家安全“不可接受之风险”

   日期:2026-04-19     来源:本站    作者:admin    浏览:76    
核心提示:    【编者按】在人工智能技术迅猛发展的今天,科技公司与国家安全之间的博弈正悄然升级。近日,美国国防部与知名AI实验室An

  国防部警告:Anthropic公司“红线”成国家安全“不可接受之风险”

  【编者按】在人工智能技术迅猛发展的今天,科技公司与国家安全之间的博弈正悄然升级。近日,美国国防部与知名AI实验室Anthropic的公开对峙引发全球关注:一边是坚守“不作恶”技术伦理的硅谷精英,一边是手握国家安全大权的五角大楼。这场价值2亿美元的合同纠纷,不仅牵扯商业利益与军事应用的冲突,更触及人工智能时代最敏感的核心命题——当代码被赋予生杀大权,技术开发者是否有权为算法划定“道德红线”?这场听证会或将重塑科技与权力的边界,其涟漪效应可能波及每一家涉足前沿技术的企业。以下为事件深度解析:

  美国国防部周二晚间声明,Anthropic公司对国家安全构成“不可接受的风险”。这是该机构首次正式回应这家AI实验室提起的诉讼——此前Anthropic因国防部长皮特·赫格塞斯上月将其列为供应链风险企业而将五角大楼告上法庭。诉讼文件中,Anthropic要求法院暂时禁止国防部执行相关风险标识。

  国防部向加州联邦法院提交的40页文件直指要害:若Anthropic“感觉其企业‘红线’被跨越”,可能在“作战行动”期间“试图禁用技术或预先改变模型行为”。这份措辞严厉的指控,将AI公司的道德自律条款推至国家安全的对立面。

  去年夏天,Anthropic曾与五角大楼签署2亿美元合同,约定在机密系统中部署其AI技术。但在后续谈判中,该公司明确划出两条底线:拒绝将AI用于美国公民的大规模监控,且技术暂不能参与致命武器的瞄准或开火决策。国防部则强硬回应:私营企业无权指挥军队如何使用技术。

  多家组织公开谴责国防部处理方式,指出完全可以通过终止合同解决问题。包括OpenAI、谷歌、微软员工在内的科技从业者与法律权利团体已提交法庭之友简报,形成硅谷罕见的技术伦理联盟。

  Anthropic在诉讼中指控国防部侵犯其宪法第一修正案权利,并基于意识形态立场实施惩罚。这场法律攻防战已超越商业纠纷,演变为科技伦理与国家安全的价值对决。

  关于临时禁令的听证会定于下周二举行。截至发稿,Anthropic未对置评请求作出回应。这场关乎AI灵魂的战争,才刚刚拉开序幕。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行