アメリカ国防総省が、7つのテック企業と契約を結び、軍の機密ネットワーク内でAIを使うと発表しました。ざっくり言うと、「AIをオフィス業務だけでなく、戦争の現場にも本格投入します」という話です。
しかも顔ぶれがかなり豪華です。
Google、Microsoft、AWS、Nvidia、OpenAI、Reflection、SpaceX。
普段は検索、クラウド、半導体、生成AIで名前を聞く企業が、今度は**“warfighting”**、つまり戦闘支援の文脈に入ってきたわけです。これは正直、かなりインパクトがあります。
ここで言うAIは、いわゆる「勝手にロボットが戦う」みたいな話だけではありません。むしろ現実には、もっと地味で実務的です。
記事によると、AIはたとえば次のような仕事に使われます。
ここ、重要です。
AIの役割は「人間を完全に置き換える」というより、人間が処理しきれない量の情報をさばく補助輪に近い。とはいえ、その補助輪が強力すぎると、人間の判断を実質的に左右してしまう。そこが怖いところでもあります。
AIの軍事利用でよく言われるのは、「判断が速くなる」というメリットです。
でも、速くなることはそのまま良いことではありません。
Georgetown UniversityのHelen Toner氏は、現代戦は「司令室で画面を見ながら、複雑で混乱した状況を判断する」仕事になっていると述べています。AIはそのとき、情報の要約や映像の解析には役立つ。でも問題は、どこまで人間が介入するのか、どこからを機械に任せるのかです。
私はここが本質だと思います。
AIは便利になればなるほど、「もうちょっと任せても大丈夫では?」という誘惑が強くなる。けれど、戦争ではその“ちょっと”が人命に直結します。
この分野では、便利さそのものより、責任の所在を最後まで人間が握れるかが最大の論点ではないでしょうか。
今回、リストにAnthropicが入っていません。これは偶然ではなく、かなり意味のある不在です。
記事によると、Anthropicは以前から、
などの条件を求めていました。一方でPentagon側は、合法とみなす用途は認めるべきだという立場です。つまり、両者の間で「どこまで許すか」の線引きが合わなかった。

さらにAnthropicは、Trump政権との法的対立も抱えていたと記事は伝えています。ここはやや複雑ですが、要するに**“安全性を重視する会社”と“軍として使いたい政府”のせめぎ合い**があった、ということです。
この外れ方は、単なる契約の不成立以上の意味があります。
AI企業が「どこでも売る」時代から、用途によっては断る会社と、使いたい側が分かれる時代に入っていることを示していると思います。
OpenAIは今回、3月に発表した契約と同じものだと確認しています。
つまり、今回新しく突如軍事提供を始めたというより、すでにあった合意が改めて表に出たと見るのが自然です。
OpenAIは「アメリカを守る人たちが、世界最高のツールを持つべきだ」と述べています。
この主張自体は筋が通っています。国家安全保障の現場で遅れを取るわけにはいかない、という理屈です。
ただ、個人的には、ここには少しだけ“技術の正しさ”と“倫理の難しさ”が混ざっていると感じます。
「最高のツールを提供すること」は、技術企業にとっては当然の使命に見える。でもその“最高”が、戦場で人を殺す効率を上げる方向にも働くなら、話は急に重くなる。AI企業は、もはや単なるソフトウェア会社ではなく、社会の安全保障に直接触れる存在になっているのだと思います。
Pentagonの技術責任者Emil Michael氏は、1社だけに頼るのは無責任だったと述べています。
これはかなり率直な発言ですし、実務の世界っぽい考え方でもあります。
要するに、
ということです。
クラウドやAIの世界では、こうしたマルチベンダー戦略は珍しくありません。複数社から調達して、リスクや交渉力を分散するやり方です。
ただ、戦争用途でそれをやると、「選択肢が増えた」ではなく、軍事AIの裾野が一気に広がったという意味も持ってきます。ここはかなり重たい変化です。
契約の一部には、AIが自律的または半自律的に動く任務では人間の監視が必要だ、という趣旨の文言が含まれていたとされています。さらに、憲法上の権利や市民の自由に反しない使い方を求める内容もあったそうです。
でも、ここで一つ気になるのが、人間の監視は本当に十分かという点です。
Toner氏は、AIへの過信が起きる現象としてautomation biasを挙げています。これは簡単に言うと、機械が出した答えを人間が「たぶん正しいはず」と思い込んでしまうことです。
これ、すごく現代的な問題です。
人は忙しいと、ツールの判断をつい信じたくなる。特に戦場では、早く決めないといけない。だからこそ、AIが“補助”のつもりで入っても、実際には判断を押し流す力を持ってしまうかもしれない。
ここは、便利さと危うさが表裏一体です。
記事は、イスラエルによるガザやレバノンでの戦争をめぐって、米国のテック企業がターゲット追跡などを支えていたことが、AIの軍事利用への懸念を強めたと伝えています。民間人の犠牲が増えたことも、疑念を大きくしました。
この点は非常に重いです。
AIが戦場で「効率化」に寄与するほど、同時に誤認や過剰攻撃の効率化にもつながりうるからです。
技術は中立だ、という言い方は簡単ですが、実際には運用方法によって結果が激変します。戦争においては、その差が人命に直結します。
今回のニュースで見えるのは、AIがもはや実験段階ではなく、国家の軍事インフラの一部になりつつあるという現実です。
しかも興味深いのは、これが「一部の未来志向の部署が試している」というレベルではなく、Pentagonが複数の巨大テック企業を巻き込んで、かなり本気で進めていることです。
これは単なるニュースというより、技術と軍事の関係が次の段階に入ったサインだと思います。
一方で、Anthropicの不参加が示すように、AI企業の中でも温度差はある。
「国防に協力するのが当然」と見る会社もあれば、「その用途には線を引くべきだ」と考える会社もある。今後はこの分断が、さらにくっきりしていくのではないでしょうか。
私は、AIの軍事利用そのものを単純に善悪で切るのは難しいと思います。国家防衛に使う以上、一定の合理性はある。
でも同時に、**“速く正確に戦う”ことが、倫理的に正しいとは限らない**。ここを曖昧にしたまま進むと、あとで取り返しがつかない形で問題が表面化する気がします。
参考: Pentagon announces deals with Google, Nvidia, and others to use AI in fighting wars