Google Threat Intelligence Group(脅威インテリジェンス・グループ)は、AIモデルがゼロデイ攻撃の発見と武器化に使われた最初の事例を確認したと発表しました。
ゼロデイ攻撃とは、ソフトウェアの欠陥が開発元にまだ知られていない段階で、その穴を突いて攻撃することです。
つまり、修正パッチが出る前にやられてしまうので、かなり厄介です。防御側からすると「そもそも存在を知らない穴」なので、先手を打ちにくいんですよね。
今回の攻撃では、ある人気のオープンソースのWebベース管理ツールが狙われました。Googleによると、攻撃者はまず有効な認証情報(ユーザー名とパスワード)を入手し、そのうえで2FA(2要素認証)を回避したとのことです。

2FAは、パスワードに加えて、スマホの認証アプリやSMSコードなど、もう1段階の本人確認を足す仕組みです。
要するに「鍵を2本かける」イメージですね。今回の攻撃は、その2本目をすり抜けたわけです。ここが本当に嫌らしい。パスワードだけ抜かれる話より、ずっと現実的な脅威です。
Googleは、攻撃者がAIモデルを使って脆弱性の発見と悪用を進めた可能性が高いとしています。根拠として挙げたのが、攻撃用スクリプトに**“幻覚(hallucination)”が含まれていたことと、コードの書式がAIの学習データに強く似た特徴**を持っていたことです。
ここでいう hallucination は、AIがもっともらしいけど実際には間違った内容を出してしまう現象です。
人間なら「うっかりミス」で済むこともありますが、攻撃コードにそれっぽい不自然さが混じると、「これは人間がゼロから書いたというより、AIが下書きしたのでは?」と見えてくるわけです。
Googleはかなり強い言い方をしていて、**“high confidence”、つまり「高い確信を持っている」と述べています。
ただし、ここは大事ですが、攻撃者の名前までは明かしていません**。また、Googleは中国や北朝鮮がAIを脆弱性発見に活用することに強い関心を示しているとも述べています。
このあたりは、AIが“便利な自動化ツール”から“攻撃の加速装置”へ変わりつつあることを示していて、かなり不穏です。
Googleによると、今回の脆弱性は、いわゆるメモリ破壊(memory corruption)のような定番の実装ミスではありませんでした。
そうではなく、高レベルの意味論的なロジック欠陥、つまり「設計や前提の置き方が甘かった」タイプだったとしています。
これはちょっと面白いポイントです。
AI、特にfrontier LLM(最先端クラスの大規模言語モデル)は、単純なバグ探しだけでなく、**“設計思想の穴”や“暗黙の信頼前提”を見つけるのが得意**だと言われています。
たとえば「ここは絶対にユーザーが正しいはず」と決め打ちしているような部分ですね。人間の開発でも、こういう“思い込み”は見落としやすい。AIはその穴を容赦なく突いてくる可能性があります。

個人的には、ここがいちばん怖いところだと思います。
バグ修正でなんとかなる話ではなく、設計そのものの甘さをAIが発見し、攻撃に利用するとなると、防御側はかなりしんどいです。
Googleは、LLMの悪用がどんどんindustrialized(産業化)しているとも警告しています。
つまり、攻撃者が手元で気まぐれにAIを試す段階を超えて、自動化されたパイプラインとして回しているということです。
具体的には、

といったやり方があるようです。
さらに、anti-detect browser(検知を逃れやすくするブラウザ)やaccount-pooling services(アカウントを束ねて使う仕組み)を使い、匿名性を維持しながら大量アクセスしているとのこと。
このへんは、もう「すごい技術」ではあるんですが、正直、悪用されると一気にイヤな効率化になります。
昔の攻撃は人手依存で、ある程度は“頑張り”が必要でした。ところが今は、AIが下書きし、ツールが自動化し、攻撃者は量を回せる。これは攻撃のコストを下げ、防御の負担を上げる、かなり嫌な方向です。
Googleは、複数のmalware family(マルウェアの系統)についても言及しています。たとえば、
などが、LLMを使って防御回避を狙うケースだとしています。
具体的には、decoy code や filler code(見せかけ用や埋め草のコード)を生成して、悪意あるロジックを目立たなくする手口です。

要するに、AIを使って「悪さを隠す」方向まで進んでいるわけです。
ここまで来ると、AIは単なるコード補助ではなく、攻撃の隠蔽・分散・自動化の中核になりつつある、と見たほうが自然だと思います。
今回のニュースで重要なのは、単に「AIが悪用された」という話ではありません。
もっと本質的には、AIが“攻撃の効率を上げる道具”から、“脆弱性を見つけ、武器化する道具”へ進化し始めたことです。
しかも狙われるのは、AIそのもののモデルだけではなく、AIを組み込んだ実運用のシステムや周辺機能です。Googleは、特に

のような、AIの便利さを支える部分が狙われていると述べています。
これはかなり現実的な警告です。
AIサービスそのものの“魔法の脳”を破るのはまだ難しくても、周辺の接続部や権限の扱いを突くのは十分あり得る。セキュリティの弱点は、いつだってコアより周辺に出やすいんですよね。
個人的には、今回の話は「AIがすごい」というより、**攻撃者側がAIを“ちゃんと道具として使いこなし始めた”**ことを示していて、そこが本当に印象的でした。
以前は「AIで攻撃もできるらしいよ」という抽象的な不安だったのが、いまや
という流れが、かなり具体的に見えてきた。
これはサイバーセキュリティの世界では、かなり大きな変化だと思います。
もちろん、AIは防御にも使われます。実際、GoogleやAnthropicのような企業も、検知や分析、脆弱性発見にAIを活用しています。
ただ、攻撃側も同じ道具を使える以上、**“AIを入れれば安全”ではなく、“AIを入れるほど新しい攻撃面も増える”**という見方が必要です。ここ、たぶん多くの企業がまだ甘く見ているのではないかと思います。
今回のGoogleの発表は、AIがサイバー攻撃の現場で実戦投入フェーズに入ったことを示す、かなり象徴的なニュースです。
ゼロデイ exploit の開発、2FA回避、LLM悪用の産業化——どれも単独なら驚きますが、これらがつながって見えてくると、もう「未来の話」ではありません。
AIは便利です。でも、その便利さは攻撃者にも同じように届く。
その現実を、Googleはかなりはっきり突きつけてきた、という感じです。