GoogleのThreat Intelligence Groupが公開したレポートによると、犯罪グループがAIモデルを使ってゼロデイ脆弱性を発見し、それを悪用して大規模攻撃を仕掛けようとしていたそうです。Googleはその攻撃を察知し、実際に展開される前に阻止しました。
正直、これはかなり重要なニュースだと思います。
というのも、以前から「AIが悪用されるようになったら危ない」とはさんざん言われてきましたが、今回はそれが**“予想”ではなく“確認された事例”として出てきたからです。しかも、ただの試行錯誤ではなく、大規模に、体系的に、攻撃の準備に使われていた**。ここがいちばん怖いところです。
Googleは、この攻撃が「初めて確認されたAI-powered cyberattack」と説明しています。つまり、AIを使って未知の脆弱性を見つけ、実際の侵入に結びつけようとした攻撃が、現実に確認されたということです。

攻撃の標的になったのは、企業などがサーバーやアカウント、セキュリティ設定を遠隔で管理するためのオープンソースのWebベース管理ツールでした。
オープンソースとは、ざっくり言うと設計図が公開されていて誰でも利用・改良しやすいソフトウェアのことです。便利な反面、広く使われるぶん、穴が見つかると被害も広がりやすいという弱点があります。
もしこの攻撃が成功していたら、ハッカーは2段階認証を回避できた可能性があったとのこと。
2段階認証は、パスワードに加えて別の確認を求める仕組みで、よく「最後の防波堤」と言われます。そこを突破されるとなると、かなり話が変わります。単なる“パスワードが漏れた”より、ずっと深刻です。
Googleによると、攻撃者はこれをmass exploitation event、つまり多くの組織をまとめて狙う一斉攻撃として展開するつもりだったようです。
個別にコツコツ狙うのではなく、脆弱性を見つけたら一気に広げる。いかにも“効率重視”な犯罪で、ここにAIの得意分野が重なってしまうのが厄介です。

Googleは開発元にすぐ連絡し、パッチを出せるようにしました。
パッチは、ソフトウェアの弱点を直すための修正プログラムです。要するに、穴を塞ぐ応急処置ですね。
結果として、被害は実際には広がらずに済んだとのこと。ここは本当に“紙一重”だったと思います。
サイバー攻撃の怖さって、見えないところで進行することなんですよね。気づいた時にはもう侵入されていた、というケースが多い。今回は、Googleがかなり早い段階で動いたことで、最悪の事態は回避できたわけです。
ただし、安心して終わる話ではありません。むしろ逆で、「AIを使えば、未知の脆弱性を探す能力が上がる」ことがはっきり見えてしまった。これは防御側にとってかなり重い現実です。

Googleは、攻撃者がどのAIモデルを使ったのか、どのソフトを狙ったのか、どのグループだったのかを明かしていません。ただし、GoogleのGeminiではないことは明言しています。
このあたりは、情報を出しすぎると模倣犯が増える可能性があるので、慎重なのは理解できます。
とはいえ、外から見ると「もうAIを使った攻撃は珍しくないのでは?」と感じる人もいるはずです。実際、記事では中国や北朝鮮に関連するグループも、脆弱性発見にAIツールへ強い関心を示していると伝えています。
要するに、AIはもはや“便利な検索エンジン”ではなく、攻撃の準備工程を高速化する道具になりつつある、ということです。
記事では、このGoogleの件に加えて、AIセキュリティをめぐる不穏な話もいくつか紹介されています。

こうした話をまとめて見ると、問題は「AIが賢いかどうか」ではなく、AIを取り巻く運用・連携・管理のどこかに穴があると、一気に崩れることだと分かります。
個人的には、AIそのものよりも、AIを組み込んだ周辺システムの複雑さのほうが危ういと思います。
便利にしようとして、API、クラウド、外部ベンダー、権限管理がどんどん増えていく。そのぶん、攻撃者が突ける場所も増える。これは昔からある「便利さと脆弱性はセット」という話が、AI時代にさらに派手になった感じです。
防御側では、AI pentestingという分野が伸び始めています。
pentestingはpen test、つまり疑似攻撃をして弱点を見つける検査のこと。AI pentestingは、AIモデルに変な入力を入れたり、意図的に混乱させたりして、どう壊れるかを調べる取り組みです。

こういう動きはとても大事です。
ただ、記事でも触れられている通り、まだ初期段階。攻撃側がAIを使ってスピードと精度を上げている一方で、防御側はその動きに追いつこうとしている最中、というのが現状でしょう。
ここは少し皮肉で、AIは「仕事を効率化する技術」として注目されてきたのに、サイバー攻撃の世界ではまず**“悪い仕事を効率化する技術”**としてインパクトを出してしまった、という見方もできると思います。
このニュースの重さは、単に「AIが悪用された」ことではありません。
AIが、ゼロデイ脆弱性の発見から実際の攻撃準備までを後押しできると確認されたことが本質です。
つまり、攻撃者にとってAIはもう“お遊びの自動化”ではなく、実戦投入できる戦力になっているわけです。これは防御側の考え方を変えなければいけない段階だと思います。

今後は、
この3つが、ますます重要になるはずです。
便利なAIが広がるほど、危険な使われ方もまた洗練されていく。
なんだか当たり前のようで、かなり嫌な現実です。でも、だからこそ今回のGoogleの阻止は、単なる“未遂”ではなく、次の時代のサイバー防衛の予告編として見るべきだと思います。
参考: Google says AI is being abused at industrial scale for cyberattacks, and it just thwarted one