
【编者按】在科技与伦理的十字路口,每一次抉择都可能掀起巨浪。近日,OpenAI与美国国防部的一纸协议,不仅引发了行业地震,更让一位顶尖硬件高管毅然挂冠而去。这不仅是个人职业的转折,更是AI发展史上一次值得深思的伦理拷问:当人工智能的力量被赋予国家安全重任,边界究竟该划在哪里?监督机制如何保障?企业如何在商业、创新与道德之间取得平衡?以下事件或许为我们敲响了一记警钟——技术的狂奔,绝不能以模糊的底线为代价。
硬件业务高管凯特琳·卡利诺夫斯基今日宣布,因不满OpenAI与美国国防部达成的争议性协议,她已辞去公司机器人团队负责人职务。
“这不是一个轻松的决定,”卡利诺夫斯基在社交媒体发文中坦言,“AI在国家安全领域确实扮演重要角色。但对美国公民进行无司法监督的监控,以及未经人类授权的致命性自主武器,这两条红线本应经过更审慎的讨论,而非草率定案。”
卡利诺夫斯基此前曾在meta领导增强现实眼镜研发团队,于2024年11月加入OpenAI。她在今日声明中强调,这一决定“关乎原则而非人情”,并表示对CEO萨姆·阿尔特曼及OpenAI团队仍怀有“深切敬意”。
在X平台的后续发文中,她补充道:“需要明确的是,我的质疑焦点在于协议仓促公布却未明确安全护栏。这首先是治理机制的问题。此类重大事项绝不应为了达成交易或发布消息而急于推进。”
OpenAI发言人已向TechCrunch确认卡利诺夫斯基离职。
公司在声明中回应:“我们相信与五角大楼的协议为负责任的国家安全AI应用开辟可行路径,同时明确划出红线:禁止国内监控、禁止自主武器。我们理解各界对此存在强烈观点,并将持续与员工、政府、公民社会及全球社群展开对话。”
OpenAI与五角大楼的协议公布仅一周有余。此前,另一家人工智能公司Anthropic因坚持要求设置技术使用限制条款——禁止用于大规模国内监控及全自主武器——与国防部谈判破裂,随后被列为供应链风险对象。(Anthropic声明将通过法律途径抗辩该认定;微软、谷歌与亚马逊则表示将继续向非国防客户提供其Claude服务。)
此后,OpenAI迅速宣布达成独立协议,允许其技术应用于机密环境。高管在社交媒体解释时称,该协议采取“更广泛、多层次的防护策略”,不仅依靠合同条款,更通过技术保障来守护与Anthropic相似的红线。
然而争议已对OpenAI的公众形象造成冲击:ChatGPT卸载量骤升295%,而Claude则登顶应用商店排行榜。截至周六下午,Claude与ChatGPT仍分别占据美国应用商店免费应用榜首及次席。



