PaPoo
cover
technews
Author
technews
世界の技術ニュースをリアルタイムでキャッチし、日本語でわかりやすく発信。AI・半導体・スタートアップから規制動向まで、グローバルテックシーンの「今」をお届けします。

Googleが第8世代TPUを発表:AIエージェント時代に向けた「推論」と「学習」専用チップ

記事のキーポイント

まず何が起きたのか

Googleが、AI向けの独自半導体「TPU(Tensor Processing Unit)」の第8世代を発表しました。しかも今回は、ひとつの万能チップではなく、用途を分けた 2種類の専用TPU を出してきたのがポイントです。

正直、この分け方はかなり筋がいいと思います。AIの世界って、「学習」と「実行」で求められる性能が全然違うんですよね。全部を1つで済ませようとすると、だいたいどこかが中途半端になる。Googleはそこを割り切って、用途別に最適化してきたわけです。

AIエージェント時代って何?

元記事のタイトルにある「agentic era」は、ちょっと耳慣れない言葉かもしれません。簡単にいうと、​AIがただ答えるだけではなく、目的に向かって自分で考え、行動する時代 のことです。

たとえば、

こうしたタスクを、AIが一歩ずつ処理していくイメージです。

普通のチャットAIは、質問に返事をするのは得意です。でもAIエージェントは、
計画する → 道具を使う → 結果を見て修正する
みたいな、もっと複雑な流れをこなします。

ここで重要なのが「速さ」です。
人間の代わりに動くなら、のんびり考えていたら使いものになりません。だからGoogleはTPU 8iを「非常に素早く動かす」ことに重点を置いているわけです。これはかなり納得感があります。

TPU 8i:AIエージェントを“待たせない”ためのチップ

Googleの説明では、TPU 8iは AI agents がreason, plan, executeする のを高速にするために作られています。

この3つの動作を日本語でいうと、

です。

要するに、AIが「次に何をすべきか」を段階的に判断して、実際に処理を進める場面で強いチップということですね。

個人的には、ここが今後のAIインフラの主戦場になると思います。
これまでは「でかいモデルを学習できるか」が派手な話題でした。でも、これから一般ユーザーや企業が本当に毎日使うのは、​すばやく反応するAIエージェント ではないでしょうか。
返事が賢いだけじゃなく、仕事を片づけてくれることが求められる。そうなると、推論性能の重要性が一気に上がるのは自然です。

TPU 8t:巨大モデルを育てるための土台

一方の TPU 8t は学習向けです。

AIモデルの学習は、ざっくり言うと「大量のデータを食べさせて、少しずつ賢くする作業」です。
モデルが大きくなるほど、必要な計算量もメモリも増えます。そこでGoogleは、TPU 8tに 巨大な単一メモリプール を用意し、複雑なモデルも扱いやすくしていると説明しています。

ここでのポイントは「単一の大きな池」でデータやパラメータを扱えること。
小さなバケツを何個も使うより、ひとつの大きな器でまとめて扱えたほうが、構成がシンプルになりやすいし、巨大モデルでは特に効いてきます。

もちろん、実際の運用はそんなに単純ではないでしょう。でも、少なくともGoogleが「学習のボトルネックを減らしたい」と考えているのははっきりしています。

チップだけでは終わらない、Googleの“フルスタック”戦略

元記事で印象的なのは、GoogleがTPUを 単なる半導体としてではなく、全体の基盤の一部 として語っている点です。

image_0002.svg

彼らは、

まで含めた full-stack purpose-built infrastructure を強調しています。

これはつまり、
「いいチップを作れば終わり」ではなく、
それがちゃんと速く、安定して、電力効率よく動く環境まで自前で作る
ということです。

ここはGoogleの強さが出るところですね。
半導体業界では、チップ単体の性能競争だけでなく、「どんなネットワークでつなぐか」「データセンター全体でどう効率化するか」がすごく大事です。AIは計算だけじゃなく、データのやり取りも大量に発生するので、インフラ全体で勝てるかどうかが効いてきます。

私としては、Googleがこの“地味だけど超重要な部分”を真正面から押してきたのが面白いです。AIブームというと、ついモデル名や見た目のデモに目が行きがちですが、実際に社会へ広げるには、裏側のインフラがものを言うんですよね。

なぜ今、この発表が重要なのか

この発表の本質は、「AIがすごい」ではなく、
AIを本当に大量に、現実的なコストと速度で動かすための基盤を作る
ところにあります。

特に今後は、次の2つが同時に重要になります。

  1. 学習をもっと効率化すること
    さらに高性能なモデルを作るには、巨大な計算資源が必要

  2. 推論をもっと速くすること
    実際のユーザー体験を良くするには、待ち時間が短いことが重要

つまり、AIは「研究室の中で賢い」だけでは足りない。
毎日何億回も使われるサービスとして、ちゃんと回ること が必要です。

GoogleのTPU 8tとTPU 8iは、その役割分担をかなり明確にした発表だといえます。

率直な感想

個人的には、今回の発表は「新しい時代のCPU/GPU競争」というより、​AIインフラの設計思想そのものが変わってきた ことを感じさせる内容でした。

昔は「何でもできる1枚」を作る発想が強かったですが、AIの世界では用途がかなりはっきり分かれてきています。
学習用と推論用を分けるのは、地味ですがかなり合理的です。しかもGoogleは、そこに自社のクラウド、データセンター、ネットワークまで組み合わせてくる。これはやっぱり強い。

一方で、こうした専用化が進むほど、利用者側は「どの基盤を選ぶか」がますます重要になるとも思います。AIは中身が見えにくいぶん、裏側の設計差がそのまま性能やコストに直結しやすいからです。

まとめ

Googleの第8世代TPUは、AIを「もっと賢くする」ためというより、​AIエージェントを現実に使える速度で動かし、巨大モデルを効率よく学習するための土台 を強化する発表でした。

ざっくり言えば、

という役割分担です。

AIが“会話する”段階から、“仕事を進める”段階に移るほど、こうした基盤の重要性は増していくはずです。
派手さは少し控えめですが、実はかなり本質的なアップデートだと思います。


参考: We're launching two specialized TPUs for the agentic era.

同じ著者の記事