weights.bin というファイル名で、OptGuideOnDeviceModel という場所に保存されるThat Privacy Guy! の記事が取り上げているのは、Google Chromeがユーザーに知らせず、オンデバイスAIモデルを勝手にダウンロードしていたという話だ。対象は Gemini Nano と呼ばれる、端末上で動く軽量LLM(大規模言語モデル)。
「軽量」と言っても、今回の話では 約4GB。全然軽くない。むしろ、普通の人の感覚では「それ、アプリ1本分では?」というサイズ感だと思う。
記事によると、このファイルは weights.bin という名前で、OptGuideOnDeviceModel というディレクトリの中に置かれる。
weights はAIモデルの“重み”のことで、ざっくり言えば AIが賢く見えるための学習済みデータの本体 だと思えばいい。これが大きいほど、機能は増えるが、通信量もストレージも食う。
著者の主張はかなりはっきりしていて、要するにこうだ。
率直に言って、これはかなり気持ち悪い挙動だと思う。
ブラウザって本来、ユーザーがWebを見るための道具であって、ユーザーのストレージを勝手に巨大なAI配布先にするものではないはずだからだ。
記事の中心はここだ。
ChromeはAI機能を支えるためにGemini Nanoを入れるが、その過程でユーザーに「4GBのモデルを入れていいですか?」と明確に聞いていない、という。
もちろん、Chrome側には「AI機能を有効化するため」という理屈はあるのだろう。
でも、何をどれだけ入れるのか をユーザーが把握できない設計は、かなり不親切だと思う。
“機能を便利にする” という名目で、裏で巨大ファイルが降ってくるのは、普通の人からするとほぼサプライズ課金みたいなものではないか。
記事では、削除してもChromeがまた再ダウンロードする例が報告されているとされる。
これ、地味に嫌なポイントだ。
ユーザーが明示的に消したものを、あとからまた入れる。
これは「便利」よりも先に「おせっかい」や「支配的」に見えてしまう。
少なくとも、端末の持ち主が最終決定権を持つべきではないかと思う。
著者は、この挙動が何十億台規模で起きると、CO2換算でかなり大きな環境コストになると指摘している。
記事中では、1回のモデル配布だけで、受信端末の規模によっては 数千〜数万トン規模のCO2-e になりうると述べている。
ここは少し誇張っぽく聞こえるかもしれないが、考え方としては確かに筋が通っている。
4GBというのは、単なる設定ファイルではなく、ほぼ“コンテンツ配信”の世界だ。
しかもそれが、ユーザーの意図ではなくブラウザの都合で大量にばらまかれる。
データセンターの電力だけでなく、端末側の通信・保存・再取得まで含めると、積み上がるコストは無視しづらいと思う。
この記事が面白いのは、単に「なんか勝手に入ったらしい」で終わらず、かなり丁寧に検証している点だ。
著者はmacOSの .fseventsd を使って、ファイルの作成や削除の痕跡を追っている。
.fseventsd は、ざっくり言うと OSが見ているファイル操作の履歴 だ。
アプリのログとは別に、ファイルがいつ作られ、いつ動かされたかを追える。
だから、アプリ側が「いやそんなことしてません」と言っても、OSレベルの記録を見ればかなり強い証拠になる。
著者によると、Chromeのユーザープロファイルに対して、以下の流れが確認されたという。
OptGuideOnDeviceModel ディレクトリが作成されるweights.bin などが展開されるしかもこの間、人間の操作はゼロ。
記事では、別サイトを表示している間のバックグラウンド処理として進んだ、と説明されている。
これはかなり重要だ。
なぜなら「ユーザーがAI機能を開いたから入った」のではなく、ただChromeを使っているだけで勝手に配布されていたことを示すからだ。
著者はさらに、Chromeの Local State やフラグ設定、更新ログなども確認している。
ここで出てくる言葉を少しやさしく言い換えると、
という感じだ。
記事では、Chromeの内部状態に「この端末はオンデバイスモデルの配布対象だ」と見なした痕跡があり、さらにその判定にGPUやメモリ容量も使われていたとされる。
つまりChromeは、ユーザーに見せる前に、この端末ならAIモデルを入れられるな と判断していたわけだ。
これもなかなか強烈だ。
ブラウザがユーザーのハードウェアを見て、「いける」と判断して勝手に巨大ファイルを落とす。
便利機能の自動化としては優秀かもしれないが、ユーザー視点だとちょっと怖い。
著者は、これは単なる“仕様の話”ではなく、プライバシーや法令の観点でもかなりまずいのでは と指摘している。
挙げられているのは主に以下。
ここは法律の専門領域なので断定は避けたいが、少なくとも著者の言いたいことは明確だ。
ユーザーが理解できない形で、巨大な処理や配布を勝手に進めるのは、透明性のある設計とは言いにくい ということだと思う。
個人的には、法的な適否以上に、「これを普通の人が見て納得するか?」がかなり怪しいと思う。
ブラウザは生活インフラに近い存在になっている。だからこそ、裏で何をしているかが見えないのは、技術的にも倫理的にも問題が大きい。
この話、単なる「Chromeがちょっと重い」ではない。
むしろ、現代のブラウザがどこまで“勝手に賢くなっていいのか” という問題を突きつけている。
AI機能はたしかに便利だ。
端末上で動けば、クラウドに送らずに済むから、プライバシー面で有利なこともある。
ただしそれは、ユーザーが納得して選べるなら の話だ。
勝手に4GB入れるのは、たとえ中身がローカルAIでも、やり方としてはかなり雑に見える。
「ローカルで動くから安全」みたいな空気が先行すると、配布の透明性や同意の問題が置き去りにされがちだ。
この記事は、その盲点をかなり痛烈に突いていると思う。
この件をひと言でいうと、ChromeがAI機能のために4GB級のモデルをユーザーに十分な説明なく配布していることが問題視されている、という話だ。
しかもそれは一部の特殊なケースではなく、Chromeの仕組みとしてかなり広く動いている可能性がある。
私の感想としては、これは「AIが進化した」というより、ソフトウェアがユーザーの持ち物を勝手に使う方向へ、もう一段進んでしまった という印象が強い。
機能としては未来っぽい。でも、運用としてはかなり昔ながらの“押し付け型”に見える。
便利さと引き換えに、同意と透明性が薄れているなら、それはあまり褒められた進化ではないと思う。