五角大廈與 Anthropic 就人工智慧軍事用途產生分歧
ペンタゴンとAnthropicがAIの軍事利用をめぐり対立
美國國防部與人工智慧公司 Anthropic 之間爆發了高風險的衝突。
米国国防総省とAI企業Anthropicの間で、極めて深刻な対立が生まれている。
這場爭議的核心在於 Anthropic 為其人工智慧模型 Claude 所設定的道德界線。
この意見の相違の核心は、Anthropicが同社のAIモデル「Claude[クロード]」に設けた倫理的な制限にある。
然而,五角大廈否決了這些限制,堅持軍事承包商必須允許人工智慧用於所有合法用途,且不得受到私營企業的干預。
しかし、国防総省はこの制限を拒否し、軍の契約業者は民間企業からの干渉を受けることなく、適法なあらゆる目的にAIを使用できなければならないと主張した。
當國防部長 Pete Hegseth 發出最後通牒,並最終將 Anthropic 指定為「國家安全的供應鏈風險」時,情勢隨之升溫。
ピート・ヘグセス国防長官が最後通牒を突きつけ、最終的にAnthropicを「国家安全保障に対するサプライチェーンのリスク」に指定したことで、事態は悪化した。
儘管 Anthropic 已將其人工智慧整合至多項軍事行動中,政府仍下令逐步淘汰該技術。
Anthropicはすでに同社のAIを様々な軍事作戦に統合していたが、政府は同社の技術を段階的に廃止するよう命じた。
對此,Anthropic 已採取法律行動,聲稱此指定為非法的報復行為。
これに対してAnthropicは、この指定は違法な報復であると主張し、法的措置を講じた。
這場衝突凸顯了矽谷與軍方之間關係的重大轉變。
この衝突は、シリコンバレーと軍との関係における重大な変化を浮き彫りにしている。
隨著五角大廈致力於追求「人工智慧主導地位」,它明確表示要求對國防使用的工具擁有單方面的控制權,這挑戰了私營技術開發商的獨立性。
国防総省が「AIにおける優位性」を求める中、民間の技術開発者の独立性に挑戦し、国防に使用されるツールに対する一方的な支配権を求めていることが明らかになった。
