最近のChrome、なんだか静かに“でかいもの”を入れているらしいです。
その正体は、Gemini Nano と呼ばれるGoogleのAIモデル。しかもサイズは 約4GB。ちょっとした動画1本どころじゃない、なかなかの存在感です。
元記事によると、これはChromeの対応端末に対して、ユーザーに目立つ通知や同意を求めることなく ダウンロードされます。ファイル名は weights.bin。保存先は OptGuideOnDeviceModel というフォルダで、Windowsでは User Data 配下、MacやLinuxでもChromeのプロフィール領域に入るそうです。
これ、地味に怖い話だと思います。
なぜなら多くの人は、ブラウザが勝手に4GB級のAIモデルを落としているなんて想像しないからです。普通は「Chromeが重いな」「ディスク容量が減ったな」で終わってしまう。原因が見えないのが、いちばんやっかいです。

今回この挙動を見つけたのは、プライバシー研究者の Alexander Hanff さん。
新しいChromeプロファイルを自動監査し、macOSのファイルシステムログを追うことで、Chromeが一時フォルダを作り、モデルの部品をダウンロードし、最終的に weights.bin をディスクに置く流れを確認したそうです。所要時間はおよそ15分。しかも、その間 人間の操作はゼロ。
さらに重要なのは、削除してもまた戻ってくる 点です。
フォルダを消しても、Chromeは次回起動時に再ダウンロードすることがある。つまり「もういらないから消した」が、ちゃんと通用しにくい。個人的には、ここがいちばん引っかかります。ユーザーの意思より、機能の準備を優先している感じが強いからです。
Gemini Nanoは、ChromeのオンデバイスAI機能に使われます。
「オンデバイス」とは、端末の中で処理する という意味です。クラウドに送らずに済むので、プライバシー面では有利になりやすい。たとえば、記事では次のような機能が挙げられています。
ただし、ここで少し面白いというか、ややこしい点があります。
Chromeのアドレスバーにある 「AI Mode」 ボタン、あれは見た目こそローカルAIっぽいのですが、実際にはGoogleのクラウドサーバーに問い合わせる そうです。つまり、端末に4GBのモデルが入っていても、そのボタンの処理には使われていない。
ここはかなり紛らわしいと思います。
ユーザー目線だと「ローカルにAIがあるなら、あのボタンもそのAIで動いているのかな」と考えるのが自然です。でも実際は違う。ストレージ容量だけ払わされているような感覚になってしまうのは、かなりモヤッとします。
記事では、削除しても再ダウンロードされる一方で、機能を無効化すれば再取得は止められる としています。方法としては、以下が紹介されていました。
chrome://flags で無効化OptimizationGuideModelDownloading を disabled にするただし、ここで大事なのは「削除する」より「機能自体を止める」必要がある、という点です。
これは、一般ユーザーにとってはかなり不親切だと思います。普通は「要らないファイルを消せば終わり」であってほしい。わざわざ設定の奥まで潜らないと止まらないのは、どうにも筋が悪いです。
Hanff氏は、この挙動が EUのePrivacy Directive に違反する可能性があると主張しています。
ePrivacy Directiveは、ざっくり言うと「端末に何かを保存するなら、事前にちゃんと同意を取ってね」というルールです。いわばクッキー同意バナーの根っこにある考え方ですね。
さらに彼は GDPR の透明性やプライバシー・バイ・デザインの原則にも触れています。
要するに、「勝手に入れるな」「何が起きるのか説明しろ」という話です。これは技術の話というより、かなり素朴なユーザーの感覚に近いと思います。知らないうちに4GB使われるのは、やっぱり納得しづらいです。
Googleは一方で、サポートページで
「ChromeはオンデバイスAIモデルをバックグラウンドでダウンロードすることがある」
と説明しています。さらに、2024年2月からは設定からモデルをオフにして削除できるようにしており、無効化すれば再ダウンロードや更新は行わない、と述べています。ストレージが足りなくなれば自動削除もされるとのことです。
とはいえ、記事の核心はそこではありません。
なぜ最初にユーザーへ明確に聞かなかったのか?
Google自身の開発者向けドキュメントでは、こうしたダウンロードについて「時間がかかることをユーザーに知らせるのがベストプラクティス」とされています。にもかかわらず、今回の件ではその原則が守られていないように見える。ここはかなり痛いところです。
個人的には、これは「AIの便利さ」と「勝手に入る不快さ」が真正面からぶつかった事例だと思います。
AI機能そのものが悪いわけではありません。オンデバイス処理がうまくいけば、通信量を減らせるし、プライバシー面でもメリットがあります。そこは素直に評価したい。
でも、同意なしで4GB級のモデルを置く のは話が別です。
しかもそれを消しても戻ってくるとなると、ユーザーは「自分のPCなのに、なんで勝手に住人が増えるの?」という気分になるはずです。技術的には合理的でも、体験としてはかなり雑に感じます。

AI時代のソフトウェアって、便利になるほど裏で何が動いているか見えにくくなるんですよね。
だからこそ、こういう「静かに入れる」設計は、機能の良し悪し以前に、説明責任の面でかなり厳しく見られるべきではないかと思います。