远东国际观察:Anthropic公司起诉美国联邦政府 AI军事化滥用引关注
3月5日,美国国防部正式将美国主要AI企业之一Anthropic列为“供应链风险”对象,禁止国防部以及防务承包商在相关项目中使用该公司人工智能技术。3月9日,Anthropic起诉美国联邦政府,指控国防部此举是对其企业主张的打击报复。Anthropic与国防部的矛盾主要在于,Anthropic希望对国防部使用其AI技术作出限制,反对其AI技术被用于全自主武器系统和大规模国内监控;国防部则坚称有权“合法使用”人工智能技术。这些限制一旦取消,相关系统就可以在无人干预的情况下选择和攻击目标。
远东点评:
Anthropic起诉表面上是企业与政府之间商业与行政权力的博弈,深层反映了全球AI军事化加速带来的失控风险。据多家媒体披露,美军在对伊朗的军事打击中使用了Anthropic的AI技术。随着AI在军事领域的渗透,战争向无人化、精准化演变的同时也伴随着重大风险。一方面,AI的自主化降低了人类对战争的可控性,加上算法的黑盒效应和潜在偏差,极易导致军事误判和平民伤亡。3月11日美国军方调查初步认定,2月28日伊朗一所小学遭“战斧”导弹袭击导致大量人员伤亡,是由于美军目标定位错误导致。另一方面,AI军事化无节制扩张可能打破全球战略平衡,激化地区及全球安全风险。

