MicrosoftがEdgeに追加する新しいCopilot機能は、開いている複数のタブをまたいで情報を集められるのが大きなポイントです。
たとえば、買い物で複数の商品ページを見比べたり、いくつかの記事を読み比べたりしているときに、Copilotへ「これらを比較して」「今開いている記事を要約して」と頼めるようになります。
正直、これはかなり“AIブラウザらしい”進化だと思います。
単に検索を手伝うだけではなく、今見ている画面そのものを理解して、まとめ役になる方向に進んでいるわけです。

今回のアップデートで目立つのは、EdgeのCopilotが「いま開いているタブ全体」を相手にするようになることです。

普通のブラウザは、ページを表示するだけです。
でもAIが入ると話が変わります。Copilotは、複数タブの内容をまたいで見ながら、
といったことができます。

これ、地味に見えてかなり便利です。
ネットって、実際には「1ページを読む」より「5ページを行ったり来たりして整理する」時間のほうが長いことが多いんですよね。そこをAIにやらせる発想は、かなり自然だと思います。

Microsoftは、以前のCopilot Modeを終了するとしています。
Copilot Modeも、タブの情報を使って何かをしてくれる機能でしたが、さらにagentic featuresがありました。
ここでいう agentic は、ざっくり言うとAIがただ答えるだけでなく、代わりに行動までしてくれる性質のことです。
たとえば、予約を取る、といった作業をAIが手伝うイメージですね。
ただしMicrosoftは、そうした機能を「Browse with Copilot」に統合したとのこと。
名前の整理を見ると、Microsoftが「AIをブラウザの中心機能として押し出したい」という意志をかなりはっきり持っているのが伝わります。個人的には、ここは単なる機能追加というよりブラウザの再定義に近い話ではないかと思います。

今回のEdgeには、ほかにもAI機能がいくつも入ります。
見ている記事を、学習用のセッションやインタラクティブなクイズに変えられる機能です。
要するに、「読む」から「理解を確かめる」へと進めるわけです。

これは学生だけでなく、専門記事を読んでいる大人にも便利そうです。
難しい記事って、読んだ気になっても頭に残らないことがありますからね。クイズ化は意外と本気で役立つかもしれません。
開いているタブをもとに、AI podcastsを作る機能も追加されます。
GoogleのNotebookLMを思い浮かべる人も多いはずです。
複数の情報を音声でまとめてくれるなら、ながら作業との相性はかなり良さそうです。

ただ、ここは面白い反面、少し怖さもあります。
音声は聞きやすいぶん、内容を深く確認した気分になりやすいからです。便利だけど、うのみにしすぎない姿勢は必要だと思います。
ウェブページで文字を入力し始めると、AI writing assistantが表示されます。
メール文面やフォーム入力を助けてくれるようなものだと考えると分かりやすいです。
Copilotに閲覧履歴へのアクセスを許可すれば、より「関連性の高い」回答が返りやすくなるとのことです。

これは便利な一方で、かなりセンシティブでもあります。
履歴はその人の興味や行動の痕跡そのものなので、ここをAIにどこまで見せるかは、ユーザーが慎重に決めるべき部分だと思います。
EdgeのCopilotは、デスクトップ版でもモバイル版でもlong-term memoryを持つようになります。
これは、過去の会話を覚えていて、次回以降の返答に反映する仕組みです。

たとえば、前に「予算重視でノートPCを探している」と話していたら、次の会話でもその条件を踏まえて返してくれる、というイメージです。
こうした記憶機能は便利ですが、同時に少し不思議でもあります。
ブラウザが「なんとなく自分を覚えている」感じになるので、便利さと引き換えに、ユーザー側の心理的な距離感は確実に変わるはずです。

新しいタブを開いたときの画面も、チャット、検索、Web navigationをまとめたデザインに変わります。
さらにJourneysという機能で、これまでの閲覧履歴をAIがカテゴリ分けして、あとで見返しやすくしてくれるそうです。
このあたりは、単に「見た目が新しくなる」という話ではありません。
ブラウザが、単なる入口ではなく自分の調べ物の履歴を整理してくれる相棒になっていく感じです。私はこの方向性、かなり筋がいいと思います。
人間は情報を集めるのは得意でも、後から整理するのが苦手なので、そこをAIが補うのは相性がいいからです。

Edgeのモバイルアプリでは、Copilotに画面共有して、見ている内容について会話できるようになります。
スマホで何かを見ながら「これどういう意味?」とその場で聞けるのは、かなり実用的です。
Microsoftは、Copilotが何かをしているときに「clear visual cues」、つまりはっきり分かる見た目のサインを出すとしています。
「今、見ているのか」「聞いているのか」「何かを実行しているのか」が分かるようにするわけです。

これはとても重要です。
AI機能が強くなるほど、ユーザーは「今なにを見られているのか」が気になります。だからこそ、動作中の表示を分かりやすくするのは、単なる親切ではなく信頼性の土台だと思います。

今回のEdge更新は、かなり攻めています。
タブ横断、履歴参照、長期記憶、音声化、学習モード、画面共有……と、AIができることを一気に広げてきました。
これは本当に便利だと思います。
特に、調べものが多い人、買い物で比較する人、情報を読む量が多い人には刺さるはずです。
一方で、便利になればなるほど、ブラウザにどこまで見せるかが重くなります。
AIが賢くなるためには、タブ、履歴、会話、画面など、かなり多くの情報が必要だからです。
Microsoftは「選べる」「見える化する」と説明していますが、ユーザーとしては、機能の多さに流されず、必要なものだけ使うのが賢い付き合い方ではないかと思います。

要するに今回の更新は、「Edgeを使う」から「Edgeに手伝ってもらう」への一歩です。
この流れは今後のブラウザ全体に広がっていきそうで、かなり見逃せない動きです。
参考: Microsoft’s Edge Copilot update uses AI to pull information from across your tabs