MIT Newsの記事は、MITの若手研究者Gabriele Farina氏が、AIの「戦略的に考える力」をどう深めようとしているかを紹介しています。テーマは一見むずかしそうですが、要するに「相手がいる状況で、AIはどうやって賢く判断するのか」という話です。これ、実はかなり本質的です。AIと聞くと、画像認識や文章生成を思い浮かべがちですが、現実の世界はもっとややこしい。相手がいて、情報が足りなくて、しかも相手もこちらを見ている。そういう世界で強いAIを作るには、単純な正解探しでは足りません。
Farina氏は、北イタリアの小さな町で育ちました。両親は大学卒ではなかったものの、彼が欲しがる技術書を買ってくれ、理系の高校に進むことも止めなかったそうです。本人はかなり早い段階から、「機械が人間よりずっと上手に予測や判断をできるのが不思議で魅力的だった」と語っています。こういう原体験、研究者の進路を決めるうえでかなり大きいんだろうなと思います。
16歳のときには、妹と遊ぶボードゲームを解くコードまで書いていたそうです。しかも「ゲームを何回も計算して最適手を出し、妹にはもう負けていると証明した」とのこと。ちょっと意地悪で、でもすごく研究者っぽいエピソードです。ゲームの勝ち負けを超えて、「どうすれば最適解を見つけられるか」に夢中だったわけですね。
大学ではイタリアのPolitecnico di Milanoで制御工学を学びますが、次第に単に既存技術を使うよりも、その理論の土台を理解し、広げることに関心が移っていきます。ここが大事で、Farina氏は「理論オタク」なだけではなく、理論を現実に役立てたいタイプなのだと思います。理論だけ、応用だけ、ではなく、その両方を行き来する研究者は強いです。
その後、指導教員のNicola Gatti氏に勧められて、計算 game theory の研究に入ります。本人は当時、博士号の仕組みさえよく分かっていなかったそうですが、卒業の1か月後にはカーネギーメロン大学でPhDを始めました。かなりの急展開です。環境が変わっても飛び込める人は、やはり強いですね。
博士課程では研究と論文で評価され、Facebook Fellowship in Economics and Computationも獲得します。さらに博士課程の終盤には、MetaのFundamental AI Research Labsで研究者として働きました。そこで関わった代表的な成果が、Ciceroの開発です。
Ciceroは、会話しながら同盟を結び、交渉し、相手のブラフを見抜くようなゲームで、人間プレイヤーに勝てるAIでした。この記事では、Farina氏が「このAIは、自分の利益にならない同盟には応じないよう設計されていたし、相手が本当にその提案を実行する見込みがあるかも理解していた」と説明しています。つまり、単に文章を返すAIではなく、相手の意図と自分の利益を見比べながら動くAIだったわけです。ここはかなり重要です。AIの進化というと「答えを出す速度」が話題になりがちですが、実際には「相手との関係を踏まえて判断する力」のほうが、現実世界ではずっと厄介で、ずっと価値があるのではないかと思います。
MITに加わった後、Farina氏は2025年にNational Science Foundation CAREER Awardも受賞しています。彼の研究の中心にあるのは、game theoryです。game theoryは、複数の人や組織がそれぞれ違う目的を持って行動するとき、どういう結果になるかを数学で扱う分野です。ここで出てくる equilibrium(均衡) は、「誰も今の戦略を変える理由がない安定した状態」のこと。言い換えると、みんなが「これ以上動いても得しない」と思っている落ち着きどころです。
ただし、現実の問題では、この均衡を見つけるのがとんでもなく大変です。記事では、巨大で複雑な場面では、計算に「10億年かかるかもしれない」と表現しています。さすがにこれは比喩も含むと思いますが、要するに理論上は分かっていても、現実には計算が重すぎるということです。Farina氏の仕事は、こうした均衡を、optimization(最適化)やalgorithm(アルゴリズム)を使って、実際に見つけられるようにすることにあります。
彼が特に注目するのが、imperfect information、つまり不完全情報の状況です。これは「誰もが全情報を見えているわけではない世界」のこと。ポーカーが分かりやすい例で、自分の手札は見えても相手の手札は見えないし、だからこそブラフが生まれます。相手に情報を知られたくない、でもこちらも相手の情報が欲しい。この綱引きが戦略の核心です。
Farina氏は、「今や機械は人間よりずっと上手にブラフできる世界にいる」と言います。これはちょっとゾクッとする話です。AIが上手に“ウソをつける”というと嫌な感じもしますが、見方を変えれば、相手に見えない情報をどう扱うかを数学的に理解できるようになってきたということでもあります。実社会では、交渉、金融、セキュリティ、サイバー攻防など、こういう場面は山ほどあるので、かなり実用的な研究です。
記事の後半で面白いのが、Strategoの話です。Strategoは軍事戦略ゲームで、相手の駒の正体が見えないまま、リスク計算とミスリードを駆使して戦うゲームです。この記事によれば、これまでStrategoで人間を超えるシステムを作るには、多額の研究費が投じられてきたのに、Farina氏のチームは1万ドル未満の新しいアルゴリズムと学習で、歴代最強プレイヤーに15勝4分1敗という成績を収めたそうです。
この数字はかなりインパクトがあります。もちろん、ゲームの勝敗だけでAIの価値を測るわけにはいきません。でも、限られたコストで、しかも不完全情報の難しいゲームに勝つというのは、戦略推論の進歩を示す分かりやすい証拠です。私はここに、AI研究の“うまい進歩の仕方”が出ていると思います。むやみに巨大化するのではなく、理論を磨いて、少ない計算で賢くする。派手さは少し減るかもしれませんが、実力はむしろこちらのほうが本物です。
Farina氏は、こうした技術が今後のAI開発パイプラインに組み込まれていくことを期待しています。そして、複雑な行動空間や不完全情報の中でも、戦略的に考えてよい判断を下せるアルゴリズムが、いま起きているAI革命の中核に入っていくことを楽しみにしている、と述べています。
個人的には、この記事は「AIは何でもできる魔法の箱」ではなく、どんな状況で、どんな情報の制約のもとで、どう賢く振る舞うかを地道に解きほぐしていく研究の大切さを教えてくれる内容だと思いました。生成AIの派手さに比べると地味に見えるかもしれませんが、こういう研究があるからこそ、AIは“それっぽく話す機械”から“本当に役に立つ判断の相棒”へ近づいていくのではないでしょうか。
参考: Games people — and machines — play: Untangling strategic reasoning to advance AI