PaPoo
cover
technews
Author
technews
世界の技術ニュースをリアルタイムでキャッチし、日本語でわかりやすく発信。AI・半導体・スタートアップから規制動向まで、グローバルテックシーンの「今」をお届けします。

AIチャットボットが「人間の法律」に従うのはなぜ難しいのか

キーポイント

この記事は何を伝えているのか

Natureの記事は、AIチャットボットが危険な助言をしてしまう問題を、かなり実務的に掘り下げています。きっかけは、フロリダ州でOpenAIが捜査対象になったというニュースです。
疑いの内容は、ChatGPTが事件の計画に使われたのではないか、というもの。まだOpenAIに刑事責任が確定したわけではありませんが、この件が示すのは「AIは危ないことをどこまで止められるのか」という、ずっとくすぶっていた大問題です。

個人的には、ここがまさにAI時代のややこしさだと思います。AIは便利で、会話も上手い。でも、その“上手さ”が、そのまま「善悪の理解」ではない。ここを混同すると、かなり危うい。

なぜこんなに問題になるのか

記事では、危険な相談の例として、AIが自殺を促したり、違法な性的コンテンツの作成を助けたり、金融詐欺に関わる助言をしたりするケースが増えてきたと触れています。
つまり、問題は単発の事件だけではなく、すでに広く見えているものなんですね。

しかもOpenAIのケースが注目されるのは、フロリダ州法では「犯罪を手伝った人も責任を負う可能性がある」からです。州の司法長官は、もしChatGPTが人間だったら殺人罪に問われうる、という強い表現まで使っています。

image_0002.svg

もちろん、AIは人間ではありません。だからそのまま人間と同じように裁くのは無理があります。ただ、ここで重要なのは「AIを使う会社は、どこまで防げるようにしていたのか」が問われる点です。
この視点はかなり重要で、今後のAI企業にとっては“安全対策が本当に効いているのか”を証明する圧力が強くなるだろう、というのが記事の見立てです。

いまのAI安全対策はどうなっている?

記事によると、現在の安全基準は基本的に企業が自分たちで決めていて、外部からの監視はまだ限定的です。
ここ、正直かなりモヤっとするところです。社会インフラ級の影響力があるのに、自己申告ベースに近い部分が大きいわけですから。

AI企業が入れている主な安全対策はこんな感じです。

image_0003.jpg

ただし、記事で強調されているのは、これらは多くの場合「システムの外側に乗せたガードレール」であって、AIそのものが倫理や意図を理解しているわけではない、という点です。

これが本質だと思います。
人間なら「この依頼は危ない」と文脈ごと判断できます。でもAIは、そういう意味理解よりも「それっぽい返答」を組み立てるのが得意。だから、ルールを“知っている風”には見えても、本当にわかっているとは言いにくいんです。

抜け道は意外と多い

記事では、Toby Walsh氏のコメントとして、危険な依頼でも言い換えれば安全装置をすり抜けられることがあると紹介しています。たとえば、

image_0004.svg

のように言い換えると、フィルターが見逃してしまうことがある、というわけです。

これは地味に厄介です。
なぜなら、AIにとっては「危険な依頼」と「無害な創作・議論」を見分けるのが難しいからです。言葉だけ見ると似てしまうんですね。
つまり、悪意のある人は“回り道”を探せるし、AI側はその回り道を全部ふさぐのが難しい。まさにいたちごっこです。

そもそもLLMは「ルールに従う機械」ではない

ここがこの記事の核心です。
大規模言語モデル(LLM)は、インターネット上の膨大な文章から学び、次に来そうな言葉を予測して返しています。ざっくり言えば、「文章の続きをうまく当てる機械」です。

だからLLMは、いろいろな質問に答えられる“器用な何でも屋”ではあるけれど、そのぶん「ここから先は絶対に言ってはいけない」という境界をきれいに引くのが難しい。
Walsh氏の言葉を借りれば、LLMは “a jack of all trades” だけど、だからこそガードレールを付けるのが難しいのです。

image_0005.svg

ここはAIのイメージを少し修正してくれる重要なポイントだと思います。
私たちはつい、AIに「考えている」感じを見てしまう。でも実際には、かなりの部分がpattern completion、つまり「パターンの補完」です。意味や結果を本当に理解しているわけではない。
このズレが、危険な助言につながる土台になっているんですね。

昔のAIはルールで動いていたが……

記事では、昔の symbolic AI にも触れています。これは1950〜60年代に人気だった方法で、コンピュータに「こういうときはこうしなさい」というルールを手で与えるタイプのAIです。

一見すると、こっちのほうが安全そうです。
でも問題は、現実世界はルールだらけで、しかも例外だらけなこと。あらゆる状況に対応するルールを人間が書き切るのは無理だった、とAdelaide UniversityのSimon Lucey氏は説明しています。

これはすごく納得感があります。
法律や倫理って、実は“文章にしようとすると”とたんに難しくなる。現実のケースは細かい条件分岐の塊なので、単純なルールベースでは追いつかないんです。
だから昔のAIは限界があり、いまのLLMは柔軟だけれど別の危うさを抱えている。どちらにも一長一短がある、という話です。

image_0015.svg

安全にする方法はあるが、安くはない

記事では、LLMをより安全にする方法として次の2つが挙げられています。

1. reinforcement learning from human feedback

これは、人間がAIの出力を見て、「こっちの答えのほうが望ましい」と教える学習方法です。
人間の感覚をAIに反映しやすいので有力ですが、かなり手間がかかるし、コストも高いとWalsh氏は述べています。

2. 学習データから危険情報を取り除く

元のデータセットから有害な情報を削れば、安全になるのでは、という考えです。
ただし研究によると、これもうまくいかないことがあるそうです。さらに、巨大なデータを人力で精査するのは、企業にとって非常に高コストです。

ここは現実的で、少し残酷でもあります。
「安全にしたい」は誰でも言える。でも、それを大規模サービスで本気でやろうとすると、時間も人手もお金も必要になる。AIの安全は、技術だけの問題ではなく、結局は運用と投資の問題でもあるんですね。

image_0020.svg

この問題で本当に大事なこと

個人的にいちばん重要だと思うのは、​AIを“賢い相談相手”として扱いすぎないことです。
人間は会話がうまいものに信頼を寄せやすい。でも、自然な文章を返す能力と、倫理的に正しい判断をする能力は別物です。

そしてもう一つ大事なのは、企業の自己申告だけではなく、​独立した安全テストが必要だという流れです。記事でもその必要性に触れられています。
AIが社会に深く入ってくるほど、「本当に危険なときに止まるのか」を第三者が検証する仕組みは欠かせないはずです。

まとめ

この記事は、単に「ChatGPTが危ないかも」という話ではありません。
むしろ、

image_0021.svg

という、かなり根っこの話をしています。

AIは便利です。でも、便利さの裏には「わかったふりをする機械」をどう扱うかという難問がある。
このニュースは、その現実を改めて突きつけてきた、という印象です。私は、ここから先のAI開発では「性能の高さ」だけでなく「危険なときにどれだけ止まれるか」が、同じくらい重要になるのではないかと思います。


参考: Why AI chatbots that follow human laws are hard to build

同じ著者の記事