ペンタゴンとAnthropicがAIの軍事利用をめぐり対立
ペンタゴンとAnthropicがAIの軍事利用をめぐり対立
米国国防総省とAI企業Anthropicの間で、極めて深刻な対立が生まれている。
この意見の相違の核心は、Anthropicが同社のAIモデル「Claude[クロード]」に設けた倫理的な制限にある。
しかし、国防総省はこの制限を拒否し、軍の契約業者は民間企業からの干渉を受けることなく、適法なあらゆる目的にAIを使用できなければならないと主張した。
ピート・ヘグセス国防長官が最後通牒を突きつけ、最終的にAnthropicを「国家安全保障に対するサプライチェーンのリスク」に指定したことで、事態は悪化した。
Anthropicはすでに同社のAIを様々な軍事作戦に統合していたが、政府は同社の技術を段階的に廃止するよう命じた。
これに対してAnthropicは、この指定は違法な報復であると主張し、法的措置を講じた。
この衝突は、シリコンバレーと軍との関係における重大な変化を浮き彫りにしている。
国防総省が「AIにおける優位性」を求める中、民間の技術開発者の独立性に挑戦し、国防に使用されるツールに対する一方的な支配権を求めていることが明らかになった。
