scb@lc-ceo.cn

Anthropic CEO达里奥·阿莫代伊拒绝美军移除AI安全限制:AI伦理与军事应用的博弈

发布日期:2026-03-04 浏览次数:0

       2026年2月26日,Anthropic CEO达里奥·阿莫代伊发表公开声明,明确拒绝美国国防部提出的“移除Claude模型安全限制”的要求,具体而言,就是拒绝移除模型中“禁止用于大规模监控”与“禁止用于全自主武器”的相关限制,强调AI安全伦理的底线,此次事件引发了全球对AI治理与军事应用边界的广泛关注,也凸显了科技企业与政府之间在AI伦理问题上的博弈。

       此次事件的背景,是美国国防部与Anthropic的合作纠纷。2025年夏,美国国防部曾向Anthropic抛出两亿美元的合作合同,让Claude大模型进入美军涉密网络,承担情报分析、战场模拟、网络防御等核心任务。但在合作过程中,五角大楼突然提出要求,移除Claude模型的两项安全限制,以便将其用于更广泛的军事场景,包括大规模监控和全自主武器研发。面对这一要求,Anthropic陷入两难:一方面,拒绝政府要求可能导致合同取消、被列入黑名单,影响公司的生存与发展;另一方面,妥协则意味着违背公司的AI伦理准则,可能引发全球舆论谴责。

        达里奥·阿莫代伊在声明中表示,AI正处于快速迭代期,算力每四个月就会翻一倍,这种前所未有的创新速度使人类面临不可预测的“黑盒效应”,作为AI模型的开发者,Anthropic有责任坚守伦理底线,防止AI被滥用。他强调,“没有刹车片”的AI军事应用,可能带来不可控的风险,甚至威胁人类的安全,因此,即使面临政府的压力,也不会移除相关安全限制,仅支持AI在防御性军事场景中的应用,并对每一项军事需求进行逐案审查。

       此次事件的背后,是全球AI军事化应用的潜在风险与AI伦理治理的缺失。近年来,美国政府一直在推动AI的军事化应用,2026年1月发布《AI加速战略》,提出以AI赋能作战样式与能力建设,重塑未来战争形态,并拒绝签署具有法律约束力的自主武器系统禁令。而Anthropic的拒绝,无疑是对美国政府“技术工具化”倾向的一次反抗,也引发了全球对AI伦理治理的思考:如何平衡AI技术的发展与安全伦理,如何规范AI的军事应用,成为全球亟待解决的问题。

       从行业影响来看,达里奥·阿莫代伊的表态,为全球AI企业树立了坚守伦理底线的榜样,也推动了全球AI伦理治理的进程。此次事件后,越来越多的AI企业开始重视AI安全伦理,纷纷出台相关准则,限制AI的滥用。同时,这也引发了国际社会对AI军事化的警惕,推动各国加强AI治理合作,建立包容、多边、有约束力的AI治理规则,避免AI成为地缘博弈的武器,确保AI技术的发展服务于人类的共同利益。

作者:泷码首席执行官(CEO)平台

数据来源:Anthropic CEO公开声明、美国国防部与Anthropic合作合同相关披露、美国2026年《AI加速战略》、自主武器系统禁令相关国际文件

联系邮箱

coo@lc-ceo.cn

微信二维码

扫一扫,微信咨询