主要な人工知能ラボと米国防総省との間で高まる緊張が、anthropic aiと戦場での使用をめぐる重大な衝突へとエスカレートしています。
Anthropicは、2億ドルの契約が危機に瀕しているにもかかわらず、米国防総省からのAI安全制限を解除する要求を拒否しました。同社は、軍事ネットワーク全体でのアドバンスモデルの展開方法をめぐる国防総省との争いで譲歩しない姿勢を明確にしています。
このスタートアップのライバルであるOpenAI、Google、xAIは、2023年に最大2億ドルの国防総省の同様の契約を獲得しました。しかし、これらの企業は、軍の機密扱いでない環境内でのすべての合法的任務にシステムを使用することをペンタゴンに許可し、政府により広い運用柔軟性を提供しました。
対照的に、Anthropicは7月に国防総省と独自の2億ドル契約を締結し、機密ネットワーク上のミッションワークフローに直接モデルを組み込んだ最初のAIラボとなりました。さらに、そのツールは機密性の高い防衛作戦に統合され、同社を米国の国家安全保障AI構築の中心に位置づけました。
ペンタゴン当局者との交渉は、ここ数週間でますます緊迫しています。交渉に詳しい人物によると、この摩擦は「数か月前に遡る」もので、ベネズエラ大統領ニコラス・マドゥロの拘束に関連する米国の作戦でClaudeが使用されたことが公になるよりもずっと前からのものだと述べています。
衝突の核心は、軍当局が強力なAIモデルを監視と自律性に向けてどこまで推し進めることができるかという点です。Anthropicは、その技術が完全自律兵器やアメリカ人の大規模な国内監視に使用されないという拘束力のある保証を求めている一方、国防総省はそのような制限を避けたいと考えています。
つまり、これは狭い商業的不一致ではなく、将来の戦場自動化に直接的な影響を与える注目度の高いAI安全対策をめぐる論争です。ペンタゴンは最大限の法的裁量を主張する一方、Anthropicは現在のシステムが大規模な生死に関わる決定をまだ任せられないと主張しています。
詳細な声明の中で、CEOダリオ・アモデイは、「限定的なケース」において人工知能が「民主的価値を守るのではなく、むしろ損なう可能性がある」と警告しました。彼は、一部のアプリケーションは「今日の技術が安全かつ確実に実行できる範囲を単純に超えている」と強調し、複雑な軍事作戦における誤用のリスクを強調しました。
監視の懸念についてさらに詳しく述べたアモデイは、強力なシステムにより、「この散在する個々には無害なデータを、誰の人生の包括的な全体像に自動的かつ大規模に組み立てることが可能になった」と主張しました。さらに、そのような能力が内向きに向けられた場合、市民と国家の関係を根本的に再構築する可能性があると警告しました。
アモデイは、AnthropicがAIを合法的な外国情報収集に使用することを支持していると繰り返しました。しかし、「これらのシステムを大規模な国内監視に使用することは民主的価値と相容れない」と付け加え、海外の情報収集と米国人の国内監視との間に厳格な倫理的境界線を引きました。
火曜日のペンタゴンでのアモデイと国防長官ピート・ヘグセスの会談中に、権力闘争が激化しました。ヘグセスは、Anthropicを「サプライチェーンリスク」と位置づける、または国防生産法を発動してコンプライアンスを強制すると脅しています。水曜日の夜、国防総省は「最後の最終提案」と呼ぶものを提示し、金曜日の東部時間午後5時1分までに回答するよう同社に求めました。
Anthropicの広報担当者は、水曜日に修正された契約文言を受け取ったことを認めましたが、それは「事実上進展がない」と述べました。彼女によると、妥協として組み立てられた新しい文言は、重要な安全対策を「随意に無視できる」法的表現と組み合わされており、明記された保護を弱体化させるものでした。
高まる圧力に対処して、アモデイは次のように述べました:「国防省は、『あらゆる合法的使用』に同意し、上記のケースで安全対策を削除するAI企業とのみ契約すると表明しています」。彼は、当局者がAnthropicをシステムから除外し、拒否した場合は「サプライチェーンリスク」と指定すると脅したと付け加えました。それにもかかわらず、彼は「良心に照らして彼らの要求に同意することはできない」と主張しました。
ペンタゴンにとって、問題は異なる枠組みで捉えられています。主席報道官ショーン・パーネルは木曜日、国防総省はAnthropicのシステムを完全自律兵器に使用したり、アメリカ人の大規模監視を実施することに「関心はない」と述べ、そのような慣行は違法であると指摘しました。その代わりに、同省は単に同社にその技術を「すべての合法的目的」に使用することを許可してほしいだけであり、それを「シンプルで常識的な要求」と説明していると主張しました。
この論争は上級レベルで個人的なものにもなっています。木曜日の夜、米国防次官エミル・マイケルは、Xでアモデイを攻撃し、この幹部は「米軍を個人的に支配しようとすること以外に何も望んでいない」と主張しました。マイケルはさらに踏み込んで、「ダリオ・アモデイが嘘つきで神様コンプレックスを持っているのは残念だ」と書きました。
しかし、Anthropicはテクノロジーセクターの一部から大きな支持を得ています。公開書簡で、GoogleとOpenAIから200人以上の労働者が同社の立場を公に支持しました。さらに、元国防総省当局者はBBCに対し、ヘグセスが「サプライチェーンリスク」ラベルを使用する正当化は「極めて薄弱」に見えると述べ、ペンタゴンの主張の堅牢性に疑問を投げかけました。
この対立はまた、AI倫理軍事政策をめぐる広範な議論の試金石にもなっています。AI研究者や市民的自由の擁護者は注視しており、この事例を防衛機関が民間ラボに対してアドバンスシステムに組み込まれた制限を緩和するよう、どこまで押し進めることができるかの初期テストと見なしています。
激化するレトリックにもかかわらず、アモデイは、米国を守るためにAIを使用することの「存亡に関わる重要性を深く」信じていると強調しました。彼は、この問題を責任ある展開の問題として位置づけ、国防への反対ではないとし、米国のAI能力の長期的な信頼性は民主的規範を守ることにかかっていると主張しました。
Anthropicの代表者は、組織が「国防省とアメリカの戦闘員のための運用継続性に引き続き話し合い、コミットしている」と述べました。しかし、ペンタゴンの期限の時計が刻々と進み、サプライチェーン指定の脅威がまだテーブルに残っている中、双方は重要なイノベーションを阻害することなく対立を解決する圧力に直面しています。
最終的に、安全対策、監視、自律性をめぐるAnthropicとペンタゴンの衝突は、軍事AIガバナンスにおける決定的な初期事例となっています。その結果は、将来のanthropic aiモデルと競合システムが米国防作戦全体でどのように契約され、制約され、展開されるかを形作る可能性があります。
