AIブームでデータセンターがどんどん増えています。
でも、その“巨大倉庫みたいな設備”が電力網に負担をかけ、電気代や環境負荷を押し上げるのではないか、という不安も強まっています。

そんな中でFortuneが紹介しているのが、かなり面白い発想です。
「じゃあ、巨大なデータセンターを1か所に集めるのではなく、家庭の中や家の外に小さな計算装置を分散して置けばいいのでは?」 というスタートアップたちです。
率直に言うと、これはかなりSFっぽくてワクワクします。
でも同時に、そんなにうまくいくのか?という疑問もかなり大きい。そこがこの記事の面白さです。

米カリフォルニアのSpanは、Nvidiaと組んで、家庭や小規模店舗に置ける小型のデータセンター“node”を展開しています。
この装置はXFRAと呼ばれ、キャビネット程度の大きさ。家の外側に設置され、ファンを使わないので静かだといいます。
ここで重要なのは、Spanの狙いが「家庭に大きな負担をかけること」ではない点です。
家には、普段あまり使われていない電力容量がある。そこを活用して、AIやクラウドの計算処理を分散してやろう、という考え方です。
Spanによると、XFRAは今年後半に1〜2メガワット相当の計算能力を生み出せる見込みで、来年以降は全米で展開し、年間1ギガワット超の規模を目指すそうです。
また、同社は、こうした分散型の設置が100メガワット級の中央集約型データセンターより6倍速く、建設コストは5分の1程度だとしています。

個人的には、この「速くて安い」という主張はかなり強いです。
データセンターは今や巨大インフラなので、建てるのも遅いし高い。そこを住宅側に分散できるなら、ビジネス的には魅力があるのはわかります。
Spanは、設置先の家庭に対して月額約150ドルの定額料金を請求し、その代わりに電気代とインターネット代を実質的に負担する仕組みです。
計算能力は、hyperscalers(巨大クラウド事業者)やAI企業に提供されます。

つまり、家庭は「小さな電力・通信インフラの受け皿」になるわけです。
ちょっとした副収入のようにも見えますが、実際はクラウドの裏方を自宅で引き受けるようなもの、と考えるとわかりやすいです。
英国のHeataも、似た方向を狙っています。
こちらはサーバーを家庭に置き、**“virtual data center”**としてクラウド処理を行う仕組みです。

ただしHeataはさらに一歩進んでいて、サーバーが出す熱を家庭の給湯に使います。
コンピュータは動くと熱を出しますが、その熱を熱伝導体で水の入った筒に移し、家のお湯として利用するという発想です。
これはかなり賢いです。
データセンターの“副産物”である熱を、ただ捨てずに使う。省エネの文脈では王道のアイデアだと思います。
Heataは、これまでに約100戸に導入し、合計で約1ギガワット時のエネルギーを節約したとしています。
そのうち70%は家庭のガスや電気暖房を減らせた分、残りの30%はデータセンター側の冷却負担を減らせた分だそうです。

さらにHeataの広報担当者によれば、これまでに800万リットルの温水を生み、家庭全体で約5.5万ドルの光熱費節約につながったとのこと。
この数字が本当にどれだけ再現性を持つかは気になりますが、少なくとも発想としてはかなり筋がいいです。

ここからが重要です。
こうしたアイデアは一見すると「電力網にやさしい」「環境にもよさそう」に見えます。
でも、記事では本当にそう言い切れるのかという疑問も紹介されています。
ユタ州立大学の物理学者Robert Daviesは、こうした取り組みが、かえってデータセンターの問題を大きくする可能性があると警告しています。
彼の予備分析によると、家庭の30〜40%程度しか小型データセンターやサーバーの設置先として適さないかもしれないとのこと。理由は、

からです。
Heataのような「熱の再利用」についても、現実には2〜3%の家庭にしか適用できない可能性があるといいます。
というのも、回収できる廃熱には限界があるうえ、暖房需要は地域によっては季節限定だからです。
ここはかなりシビアなポイントです。
技術がどれだけ優れていても、住宅の条件、季節、地域差、住民の許容度で一気にスケールしなくなる。こういう話は、技術の世界では本当によくあります。現実って意外と地味で、そこが厄介なんですよね。

Daviesが特に懸念しているのが、Jevons paradoxです。
これは、ある資源を使う効率が上がると、その資源の総使用量が減るどころか逆に増えることがある、という考え方です。

たとえば、蒸気機関が効率化されて石炭が安くなると、石炭の消費量そのものが増えた、という歴史的な例があります。
この記事では、コンピュータ技術も似た道をたどってきたと指摘されています。
35年前と比べて、同じことをするのに必要なエネルギーは約45%少なくなったのに、実際のエネルギー消費はむしろ約70%増えたというのです。
これはかなり考えさせられます。
「効率化すれば解決する」というのは、半分正しくて半分危うい。
便利になればなるほど、需要が膨らんで結局トータルの負荷は増えるかもしれない。AI分野はまさにその典型になりつつある、というのがDaviesの見方です。

とはいえ、これでSpanやHeataの取り組みが全部ダメ、という話ではありません。
むしろ記事でも、これらの新技術は何百万世帯かには実際に役立つ可能性があるとしています。
Heata側も、「これは単なる効率化ではなくsubstitution(置き換え)だ」と主張しています。
つまり、家はどのみち暖房が必要なのだから、その需要をサーバーの熱で一部まかなうのは理にかなっている、という考えです。

この主張はたしかに一理あります。
特に暖房コストが高い地域では、廃熱の再利用はかなり現実的です。
ただし、それでもAI計算需要の拡大スピードのほうが速いなら、全体としては問題が解決しないかもしれません。

この記事のキモは、単に「家に小型データセンターが入るようになりました」という未来ニュースではありません。
本質は、AI時代の電力問題を、私たちはどう分担していくのかという話だと思います。
この問いはかなり重いです。
個人的には、分散型の発想自体はすごく面白いし、技術としても好きです。
でも、「効率化=解決」ではないという警告はかなり大事だと思います。便利な仕組みは、しばしば別の場所で別の負荷を生むからです。

要するに、これは「賢いアイデア」ではある。
ただし、**“AIの爆食い”を正当化する免罪符になってはいけない**。
そこを見誤ると、結局は電力網も環境もさらに苦しくなるのではないか、というのがこの記事から受けた印象です。