PaPoo
cover
technews
Author
technews
世界の技術ニュースをリアルタイムでキャッチし、日本語でわかりやすく発信。AI・半導体・スタートアップから規制動向まで、グローバルテックシーンの「今」をお届けします。

MetaがAmazonのGravitonを大量導入へ AIエージェント時代はGPUだけじゃ回らない?

キーポイント

まず何が起きたのか

2026年4月24日、AmazonはMetaとAWS Gravitonの供給契約を結んだと発表しました。
これによりMetaは、世界最大級のAWS Graviton顧客の一社になるとのことです。

「MetaがAmazonのチップを買う」と聞くと少し意外に感じる人もいるかもしれません。
でも、最近のAIインフラは「GPUをたくさん積めばそれで終わり」ではありません。むしろ、​AIを動かし続けるための周辺処理がどんどん重くなっていて、そこを支えるCPUの重要性が増しています。今回の契約は、その流れをかなりはっきり示しているニュースだと思います。

AWS Gravitonって何?

AWS Gravitonは、Amazonが設計するARMベースのCPUです。
ここで大事なのは、​GPUではなくCPUだという点です。

ざっくり言うと、

image_0005.svg

という役割分担があります。

Amazonは今回の発表で、​大規模モデルのトレーニングにはGPUが不可欠だとしつつ、​AIエージェントの台頭によってCPU負荷の高いワークロードが増えていると説明しています。
ここでいう「ワークロード」は、要するにコンピューターにやらせる仕事の種類や負荷のことです。

なぜ今、CPUが重要なのか

AIエージェントは、単に質問に答えるだけではありません。
検索したり、コードを書いたり、複数の手順を順番に実行したり、外部サービスとやりとりしたりと、かなり人間っぽく段取りを組んで動くAIです。

こうなると必要なのは、ただ「速い計算機」ではなく、

を安定してさばけるインフラです。

image_0006.png

個人的には、ここが今回いちばん面白いポイントです。
AI業界ってどうしても「GPU争奪戦」のイメージが強いのですが、実際にはAIの“本番運用”に入るほどCPUの存在感が増すんですよね。学習用の巨大GPUクラスターだけで世界が回るわけではない、という現実が見えてきます。

Metaは何に使うのか

Metaによると、AWS Gravitonは社内のさまざまなワークロードを支えつつ、​AI開発の支援にも使われます。

今回の契約では、まず数千万個のAWS Gravitonコアが供給されるそうです。
「数千万コア」と聞くと想像しづらいですが、要するにMeta規模の巨大な処理を回すために、かなり本気でインフラを積み増すということです。

Metaのインフラ責任者、サントシュ・ジャナルダン氏は、AI事業を支えるインフラを拡張するうえでコンピューティングリソースの多様化が戦略的に重要だとコメントしています。
平たく言えば、​同じ種類の計算資源に頼りすぎず、CPUも含めてバランスよく増やしたいということですね。

これはかなり納得感があります。
AI企業は、GPUを確保できたかどうかだけでなく、​そのGPUの前後で動くデータ処理や制御処理をどれだけ効率よく回せるかが勝負になっているからです。

image_0007.png

Graviton5の強み

Metaに供給されるのは、主にGraviton5です。Amazonによると、Graviton5は以下の特徴を持ちます。

ここでの「キャッシュ」は、CPUのすぐ近くにある超高速な一時置き場です。
よく使うデータをそこに置いておくことで、毎回遠くのメモリを取りに行かなくて済むので、処理が速くなります。キャッシュが大きいのは、地味ですがかなり効きます。

また、コア間通信の遅延が減るというのは、複数の処理を並行させたときに待ち時間が少なくなるという意味です。
AIエージェントのように、いくつもの処理を連携させる用途では、こういう改善がかなり重要です。

AWS Nitro SystemやEFAって何?

記事では、GravitonがAWS Nitro System上に構築されていることも紹介されています。
Nitro Systemは、Amazonの高性能・高可用性・高セキュリティを支える仕組みで、ざっくり言うと「クラウド上の仮想化をうまく速く安全にやるための土台」です。

また、​EFA (Elastic Fabric Adapter) に対応しているのもポイントです。
これは、複数のインスタンス同士を低遅延・高帯域幅でつなぐための仕組みで、大規模な分散処理に向いています。

image_0008.png

AIエージェントの処理は、1台のマシンだけでは終わらず、複数のサーバーにまたがって動くことが多いので、こうした通信性能はかなり大事です。
見た目は地味ですが、こういう「裏方の速さ」が実はAIの体感品質を左右するんですよね。

これはAmazonにとっても大きい

Amazonのヴァイスプレジデントで主席エンジニアのナフェア・ブシャラ氏は、今回の件を​「単なるチップの話ではない」​と表現しています。
彼が強調しているのは、チップだけでなく、

をまとめて提供することの重要性です。

この言い方、なかなか鋭いです。
AIの競争って、最先端のモデル名だけで語られがちですが、実際にはそれを誰がどれだけ安定して、安く、速く、広く動かせるかの戦いでもあります。Amazonとしては、Gravitonを広く使ってもらうことで、自社のクラウドAI基盤の存在感をさらに強めたいのではないかと思います。

image_0009.png

競争相手の動きも激しい

記事の末尾では、AnthropicがAmazonとの提携を拡大し、​AWS Gravitonを含むAIチップ確保のための大規模投資を発表した話にも触れています。

つまり今のAI業界は、単に「どのモデルが強いか」だけではなく、
どの会社が、どのクラウドと、どれだけ強く組むかまで含めた総力戦になっているわけです。

OpenAI、Anthropic、Google、Amazon、Meta……このあたりの巨大企業が、モデルだけでなく計算資源の確保合戦をしている構図は、かなり現代的で面白いです。
しかもその主役がGPUだけでなく、CPUやネットワーク、仮想化基盤にまで広がっているのが、いかにも「AIが本格的な産業インフラになってきた」感じをします。

まとめ

今回のMetaとAmazonの契約は、単なる“チップの売買”ではありません。
AIエージェント時代には、学習用のGPUだけでなく、推論や制御を担うCPUインフラが重要になる――そんな流れを象徴する出来事です。

個人的には、これはかなり重要なニュースだと思います。
AIの進化というとついモデル性能ばかり見てしまいますが、実際の勝負は「どう動かすか」「どこで回すか」に移ってきている。今回の契約は、その現実をかなりわかりやすく見せてくれました。


参考: MetaがAmazonのAIチップ「AWS Graviton」の供給契約を締結、次世代AIエージェント構築の基盤に - GIGAZINE

同じ著者の記事