ペンタゴンとAnthropicがAIの軍事利用をめぐり対立
Pentagon and Anthropic clash over AI military usage
米国国防総省とAI企業Anthropicの間で、極めて深刻な対立が生まれている。
A high-stakes conflict has emerged between the U.S.
この意見の相違の核心は、Anthropicが同社のAIモデル「Claude[クロード]」に設けた倫理的な制限にある。
Department of Defense and the AI company Anthropic.
しかし、国防総省はこの制限を拒否し、軍の契約業者は民間企業からの干渉を受けることなく、適法なあらゆる目的にAIを使用できなければならないと主張した。
The company explicitly prohibited its technology from being used for mass domestic surveillance or for powering fully autonomous weapons systems.
ピート・ヘグセス国防長官が最後通牒を突きつけ、最終的にAnthropicを「国家安全保障に対するサプライチェーンのリスク」に指定したことで、事態は悪化した。
However, the Pentagon rejected these restrictions, insisting that military contractors must allow AI to be used for all lawful purposes without interference from private firms.
Anthropicはすでに同社のAIを様々な軍事作戦に統合していたが、政府は同社の技術を段階的に廃止するよう命じた。
This rare move, usually reserved for foreign adversaries, prevents federal agencies from doing business with the company.
これに対してAnthropicは、この指定は違法な報復であると主張し、法的措置を講じた。
While Anthropic has already integrated its AI into various military operations, the administration has ordered a phase-out of the technology.
この衝突は、シリコンバレーと軍との関係における重大な変化を浮き彫りにしている。
In response, Anthropic has launched legal action, claiming the designation is illegal retaliation.
国防総省が「AIにおける優位性」を求める中、民間の技術開発者の独立性に挑戦し、国防に使用されるツールに対する一方的な支配権を求めていることが明らかになった。
This clash underscores a significant shift in the relationship between Silicon Valley and the military.
