最近のAI開発ツールは、ただのチャットではありません。
コードを書かせるだけでなく、複数のagent(自律的に動くAIの作業役)を並列で走らせたり、SlackやGitHubの情報を見に行かせたり、IDE(開発用エディタ)やdesktopアプリから操作したりと、かなり“道具箱”っぽくなっています。
その中でも存在感が大きいのがAnthropicのClaude Codeです。
Ars Technicaの記事では、そのプロダクト責任者であるCat Wuへのインタビューを通じて、Claude Codeがどんな思想で作られているのかが語られています。
率直に言うと、この記事でいちばん面白いのは、Anthropicが「全部を一つの大作戦で設計しているわけではない」とかなり正直に言っているところです。普通、企業はもっと“壮大な未来像”を語りたがるものですが、Wuはかなりあっさり「大きな計画はない」と言う。これは逆に、今のAIツール市場のカオスさをよく表していると思います。
記事によると、Claude Codeはすでに
といった複数の“surface”(ユーザーが触る入口)を持っています。
ここで大事なのは、Anthropicがひとつの正解UIを押しつけていないことです。
Cat Wuは、開発者ごとに好みが違うので、使用状況もかなり分かれていると話しています。とはいえ、今でも中心はCLIだそうです。
CLIは、黒い画面にコマンドを打つやつです。
一般の人からすると少し玄人向けに見えますが、開発者にとっては最速で試せて、最も自由度が高い。Anthropicのチーム自身も、最初はそこを中心に使っているとのことです。
ただ、使い方が進化してくると話は変わります。
昔は「agentが1つ」だったのが、今では「terminal tabが6個」になり、さらに通知や監視の仕組みが必要になる。そうなると、**“テキストだけで全部見る”のがしんどくなる**わけです。
そこでdesktopのような、複数の状態を見やすいGUI(見た目のある画面)が効いてくる。これはすごく自然な流れだと思います。
Wuの話でおもしろいのは、Anthropicが新機能を増やすだけでなく、逆に scaffolds(足場)を取り除いていることです。

ここでいう scaffolds は、モデルをうまく動かすための補助的な仕組みです。たとえば、
などを、モデルが賢くなるにつれて減らしているそうです。
つまり、最初は人間が細かく「こう動いてね」と指定しないといけない。
でもモデルが進化すると、その“お膳立て”が不要になる。
だから Anthropic は、機能を足しつつ、内部の補助は削るという両方向の調整をしているわけです。
個人的には、これはかなりAnthropicらしい発想だと思います。
「AIを便利にするにはガチガチの管理が必要」と考える会社もありますが、Anthropicはむしろモデルが育つ前提で、余計な枠を外していく方向に賭けている。かなり“AIそのものの成長”に期待している会社だと感じます。
記事では、Anthropicが最近usage limits(利用制限)に関する不満を抱えたユーザーに対応していることも触れられています。
背景には、Claude Codeの人気が想定以上に爆発したことがあります。
AnthropicのCEO Dario Amodeiによると、同社は年10倍の成長を想定していたのに、実際には80倍規模になってしまった。そりゃ計算資源(compute)が足りなくなるわけです。
ここでいう compute は、AIを動かすための計算能力のことです。
つまり、AIが賢くなるほど、そしてユーザーが増えるほど、裏で回すGPUなどの資源がどんどん必要になります。
Anthropicは、混雑時の制限を厳しくしたり、安価なプランからClaude Codeを外したりといった対策も試していました。
ただしユーザーからすると、「使いたいときに使えない」のはかなりつらい。AI開発ツールは作業の流れを止めると価値が落ちるので、この問題は地味ですがかなり重要です。
その後、AnthropicはProとMaxプランの利用上限を倍増したとのこと。
これも、需要の大きさを認めたうえでの現実的な対応でしょう。

Wuはインタビューで、はっきりこう言っています。
We have no grand plan!
これはなかなか強い言い方です。
でも、Ars Technicaの記事を読む限り、これは単なる場当たりではありません。むしろ、AIモデルの進化が速すぎて、遠い未来を固定しても外れるという認識があるからこそ、あえて大計画を作らないのだと分かります。
Wuは、Richard Suttonの有名な考え方である “The Bitter Lesson” にも触れています。
ざっくり言うと、AIでは人間が細かく作り込んだ特殊な仕組みより、汎用的でスケールする方法のほうが最終的に勝ちやすい、という話です。
Anthropicはこの考え方をかなり重視していて、
「どのUIが最終形か」を断定するより、モデル能力がどこへ向かうかを見ながら形を変える方針のようです。
これは地味に重要です。
普通のソフトウェアなら、ある程度完成形を描いてから作れます。
でもAIは、土台の性能そのものが毎月のように変わる。そうなると、製品設計も“地形図”ではなく“天気予報”みたいになる。つまり、固定した設計より、変化に合わせて動く方が賢いということです。
Wuの話で、未来っぽさが強く出ていたのがここです。
Anthropicは、Claudeがユーザーの意図を先読みして動く方向を考えているようです。
たとえば、あなたが「音声機能」を作っているなら、Claudeが自分で
といった監視を行い、必要に応じて自動でまとまった作業を始める、というイメージです。

ここで出てくる routines は、決まった監視や実行の流れをまとめたもの、と理解するとよいでしょう。
つまり、いまは人間が「このチャンネルを監視してね」と設定しているけど、将来的にはClaude自身が“それ、必要ですよね”と判断するようになるかもしれない、ということです。
これ、かなり面白いです。
AI開発ツールが単なる“賢い補助輪”から、仕事の段取りを考える相棒に変わっていく感じがあります。
一方で、ここまで自律性が高まると「どこまで任せていいのか」という不安も出てくるはずです。便利さと怖さが同時に増える、いかにも今っぽい未来だと思います。
Claude Codeは、単に「コードを書いてくれるAI」ではなく、
開発作業の流れそのものを再設計するツールとして進化しているように見えます。
ただしAnthropicは、その完成形を最初から決め打ちしない。
CLIが中心の時期もあれば、desktopが主役っぽくなる時期もある。
また、将来的には「結局テキストボックスに戻るかも」とWu自身が語っているのも印象的です。
この発言は、夢がないというより、むしろかなり誠実だと思います。
AI界隈はつい「未来の最終形」を語りたくなりますが、現実にはモデルの進化が速すぎて、今日の正解が明日の古典になりがちです。Anthropicはその不確実さを、きれいごとで隠さず前提にしているわけです。
この記事を読んでまず思ったのは、Claude Codeは“完成品”というより“進化中の生き物”に近いということです。
しかもAnthropicは、その生き物の形を無理に固定しようとしていない。
これは賢い一方で、ユーザーから見ると少し落ち着かない面もあるでしょう。
機能が増えたり減ったり、制限が変わったり、UIの重心がCLIからdesktopへ動いたりする。便利さと不安定さがセットです。
ただ、今のAI開発ツール市場はそもそも大変動期なので、安定より適応を優先するのはかなり筋が通っているとも思います。
そして何より、Anthropicが「大きな青写真」よりも現場の使われ方を見て1週間単位で動くと言っているのが生々しい。
理想論ではなく、現実に合わせて形を変える。
この泥臭さこそ、今のAIプロダクトの本質なのかもしれません。
参考: Claude Code's product lead talks usage limits, transparency, and the "lean harness"