Pentagon and Anthropic clash over AI military usage
ペンタゴンとAnthropicがAIの軍事利用をめぐり対立
A high-stakes conflict has emerged between the U.S.
米国国防総省とAI企業Anthropicの間で、極めて深刻な対立が生まれている。
Department of Defense and the AI company Anthropic.
この意見の相違の核心は、Anthropicが同社のAIモデル「Claude[クロード]」に設けた倫理的な制限にある。
The core of this disagreement lies in the ethical boundaries Anthropic set for its AI model, Claude.
同社は、自社の技術を国内での大量監視や、完全に自律的な兵器システムに使用することを明示的に禁止していた。
However, the Pentagon rejected these restrictions, insisting that military contractors must allow AI to be used for all lawful purposes without interference from private firms.
ピート・ヘグセス国防長官が最後通牒を突きつけ、最終的にAnthropicを「国家安全保障に対するサプライチェーンのリスク」に指定したことで、事態は悪化した。
The situation escalated when Defense Secretary Pete Hegseth issued an ultimatum, eventually designating Anthropic a 'supply chain risk to national security.'
通常は外国の敵対勢力に対して行われるこの異例の措置により、連邦機関は同社と取引ができなくなった。
While Anthropic has already integrated its AI into various military operations, the administration has ordered a phase-out of the technology.
これに対してAnthropicは、この指定は違法な報復であると主張し、法的措置を講じた。
In response, Anthropic has launched legal action, claiming the designation is illegal retaliation.
この衝突は、シリコンバレーと軍との関係における重大な変化を浮き彫りにしている。
This clash underscores a significant shift in the relationship between Silicon Valley and the military.
国防総省が「AIにおける優位性」を求める中、民間の技術開発者の独立性に挑戦し、国防に使用されるツールに対する一方的な支配権を求めていることが明らかになった。
As the Pentagon strives for 'AI dominance,' it is making clear that it demands unilateral control over the tools used in national defense, challenging the independence of private technology developers.
