Financial Times の記事タイトルは “Conned by a chatbot”。直訳すれば「チャットボットにだまされた」です。
このタイトルだけでも、かなり核心を突いていると思います。最近のAI、特にLLMは、あからさまに変なことを言うよりも、いかにも正しそうな顔で間違うのが得意なんですよね。ここが本当に厄介です。
元記事の説明文には、
“Like tricksters, LLMs have perfected the art of plausibility”
とあります。つまり、LLMはペテン師のように「もっともらしさ」を完成させてしまった、という見方です。
これはかなり鋭い表現だと思います。なぜなら、LLMの危険性は「機械がウソをつく」ことそのものより、人間がつい信じてしまう形でウソを並べることにあるからです。
ここで少し背景を補足すると、LLMは人間の文章を大量に学習して、次に来そうな言葉を予測する仕組みです。
ざっくり言えば、検索エンジンというより、超高性能な文章補完装置に近い。
だから、LLMは
といった特徴を、とても上手に作れます。
でも、ここが肝心なのですが、文章が上手いことと、内容が正しいことは別です。
むしろLLMは、「知らない」と言うより、「知っているふり」をする方向に寄りやすい。これが、人をだます力になってしまうわけです。
私はここに、AI時代のかなり根本的な問題があると思います。
人間はどうしても、流暢なもの=信頼できそうと感じやすい。プレゼンが上手い人の話を信じてしまうのと似ています。AIはその“話し方のうまさ”を、極端なレベルで再現してしまうんですよね。
記事のテーマを一言でまとめるなら、LLMは間違いを“自然な言葉”で包むのが上手すぎる、ということです。
たとえば、AIが何かを間違えるとき、昔のシステムならエラーを出したり、変な単語の羅列になったりして、すぐに怪しいとわかりました。
でもLLMは違います。文章はきれい、構成も整っている、説明も筋が通っているように見える。だから、読む側は「お、ちゃんと調べているな」と思いやすい。
この“思いやすさ”が危険です。
なぜなら、AIの間違いは、雑音ではなく、きれいな文章として届くからです。
しかも、AIは質問に対して「わからない」と素直に言うより、それらしい穴埋めをしてくることがあります。これが、いわゆる hallucination(幻覚)や“もっともらしい作り話”の問題です。
専門的にはそう呼ばれますが、要するに「自信満々の作話」です。こう言うとかなり乱暴ですが、実感としてはそのほうが近いと思います。
この種の問題は、単に「AIがたまに間違える」では済みません。
むしろ怖いのは、間違いが見抜きにくい形で流通することです。
たとえば、次のような場面が考えられます。
こういう場面で「それっぽいけど間違い」を信じてしまうと、損失が大きい。
しかもAIは、「これでいいのかな?」という人間の迷いを見せないので、なおさら厄介です。
個人的には、ここがAIブームのいちばん危ういポイントだと思っています。
性能の進化が進むほど、人は「これはもう普通に使える」と感じてしまう。でも、普通に使えるように見えることと、責任を持って使えることは別なんですよね。
元記事のタイトルと説明から読み取れるメッセージは、たぶん単純です。
LLMの“賢さ”を過信するな、ということだと思います。
大事なのは、AIを完全に避けることではありません。むしろ現実的には、うまく使う方向が正解でしょう。
そのうえで、少なくとも次の姿勢は必要だと思います。
要するに、AIは便利な下書き職人としてはかなり優秀だけど、最後の責任者にしてはいけない、ということです。
この線引きができるかどうかで、AIの恩恵を受けるか、AIに振り回されるかが分かれるのではないでしょうか。
FTの記事が面白いのは、LLMを単に「間違える機械」としてではなく、人を納得させるのが異様に上手い存在として捉えている点です。
ここには、AIの本質がかなり凝縮されていると思います。
LLMは、知識を持つというより、知識を持っていそうに話す。
そして人間は、その“持っていそう感”に弱い。
だからこそ、これからのAIリテラシーは「使えるかどうか」だけでなく、「どこで疑うか」が重要になります。
私はむしろ、AIが賢くなるほど、人間側の批判的な目が必要になると思います。AIにだまされないためには、AIの文章を読む私たちのほうも、少しだけ疑い深くなる必要がある。そんな時代に入った、というのがこの元記事のいちばん面白いポイントではないでしょうか。