Notebookcheck Logo

人类学拒绝五角大楼将克劳德人工智能用于无人武器系统或大规模监控的提议

德事隆 Aerosonde Mk.4.7 无人机系统。
ⓘ Textron Systems
德事隆 Aerosonde Mk.4.7 无人机系统。
在人工智能模型的安全性和社会责任方面,Anthropic 公司很可能继续保持领先地位。尽管存在各种潜在影响,它还是拒绝了五角大楼的要求,取消了其克劳德人工智能代理固有的禁止军事使用和监视的防护措施。
AI

人工智能巨头 Anthropic 公司将在五角大楼规定的 2 月 27 日最后期限前,取消其克劳德模型在军事用途上的所有保障措施。

Anthropic 首席执行官达里奥-阿莫代(Dario Amodei)表示,这家人工智能公司不能 "凭良心 "将克劳德用于运行无人武器系统或大规模监视美国公民,因为它既不安全也不可靠,无法满足上述目的。

Anthropic 的克劳德既是目前最领先的人工智能代理之一,也是最注重安全的人工智能代理,它内置了防止恶意使用其人工智能工具的防护栏。然而,美国陆军部(DoW)chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF它购买的人工智能模型必须没有任何限制,只有它自己模糊不清的 "合法使用 "限制:

多样性、公平性和包容性以及社会意识形态在国防部中没有一席之地,因此我们绝不能使用包含意识形态 "调整 "的人工智能模型,因为这将影响它们对用户提示做出客观真实反应的能力

,国防部还必须使用不受使用政策限制的模型,因为这些限制可能会限制合法的军事应用。因此,我指示 CDAO 在 90 天内制定模型客观性基准,将其作为主要采购标准;我还指示负责采购和维持的陆军副部长在 180 天内将标准的 "任何合法用途 "语言纳入任何采购人工智能服务的国防部合同中。

五角大楼现在威胁 Anthropic,其严重后果不仅仅是影响其资产负债表。除了危及目前为五角大楼提供人工智能工具的上限为 2 亿美元的合同外,Anthropic 还面临着被认定为供应链风险的风险,或被要求根据 20 世纪 50 年代在朝鲜战争期间以国家安全为由强迫美国公司遵守的法律,消除克劳德在军事用途上的障碍。

供应链风险指定通常只针对与中国华为或俄罗斯卡巴斯基等恶意国家行为体有潜在联系的公司,因此将Anthropic列入该名单可能会对其盈利潜力造成重大打击。尽管有可能成为现任白宫政府的人工智能弃儿,但阿莫代坚持认为,目前的"前沿人工智能系统根本不够可靠,无法为完全自主的武器提供动力",而"利用这些系统进行大规模国内监控不符合民主价值观"。

Anthropic公司的克劳德(Claude)是政府首次希望使用人工智能工具筛选机密信息时的首选模型,并在策划抓捕委内瑞拉强人马杜罗的突袭行动时提供了帮助,因此达里奥-阿莫代表示,他希望五角大楼重新考虑其在人工智能模型中将继续限制的两种红线场景的立场。

资料来源

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2026 02 > 人类学拒绝五角大楼将克劳德人工智能用于无人武器系统或大规模监控的提议
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)