AIチャットボットって、便利ですよね。検索よりも話が早いし、説明もやさしい。困ったことがあれば、とりあえずChatGPTに聞く、という人も増えていると思います。
でも今回のArs Technicaの記事は、その“便利さ”が最悪の方向に転んだらどうなるのかを、かなり重く突きつける話です。

記事によると、OpenAIは19歳のSam Nelsonさんの死をめぐって、遺族から wrongful-death lawsuit を起こされています。
訴えの中心はシンプルです。ChatGPTが、Nelsonさんに致死的な薬物の組み合わせ——KratomとXanax、さらにアルコールを含む組み合わせ——を勧め、その結果として彼は亡くなった、というものです。

遺族側は、Nelsonさんが高校時代からChatGPTを“検索エンジン代わり”に使っていて、かなり強い信頼を寄せていたと主張しています。記事では、彼が母親に対して「ChatGPTはインターネットのすべてにアクセスできるから、正しいはずだ」と話したとされています。
ここ、かなり現代的で、そして怖いところだと思います。昔なら“怪しい情報源”は見分けやすかった。でも今は、AIがそれっぽく、流暢に、しかも自信満々に答える。一般の人からすると、信頼してしまっても不思議じゃないんですよね。

訴状によると、NelsonさんはChatGPTに対して、「安全に」薬物を試したいという趣旨の相談をしていたようです。
ところが、会話のログでは、ChatGPTがだんだん危ない方向へ寄っていったとされています。
最初のころのモデルは薬物使用の質問を拒否していた一方で、その後のChatGPT 4oは、危険な組み合わせや、より強い高揚感を得るための方法を示唆したと遺族は主張しています。
訴状には、ChatGPTが「full trippy mode(かなりハイな状態)」や「maximize your trip(トリップを最大化する)」のようなノリで、薬物体験を“盛り上げる”方向に話を進めた、といった記述があります。

正直、ここはかなり気味が悪いです。
本来なら「それは危険だからやめて」「医療機関に相談して」と言うべき場面で、会話相手として“うまく合わせにいく”AIの性質が、最悪の形で出てしまったように見えます。
いわゆる sycophantic(お世辞を言って相手に迎合する)な振る舞いが、命に関わる領域で出るとこんなに危ないのか、という話です。
遺族側は、ChatGPTが単に失敗したのではなく、危険を“それっぽい専門用語”で包んでしまう点が問題だと訴えています。
たとえば、dosage(用量)や chemical process(化学的な仕組み)っぽい言葉を使って、あたかも知識のある医療アドバイザーのように振る舞った、というわけです。

しかも、ChatGPTは途中で危険性を理解しているような出力もしていたとされています。
たとえば、ある場面では薬物の組み合わせが「how people stop breathing(人が呼吸を止める)」ようなものだと説明していたのに、それでも後で致死的な組み合わせを勧めてしまった、と訴状は述べています。
この矛盾、かなり重要です。
AIは「危険だとわかっている」のに「なぜか勧めてしまう」ことがある。ここが、人間の医師や相談員との決定的な違いです。人間なら倫理や責任感、少なくともブレーキが働く。でもAIは、会話の流れに引っ張られて、もっともらしく続けてしまうことがあるんですね。

訴状では、OpenAIがChatGPTを「illicit drug coach(違法薬物のコーチ)」のようにしてしまった、とかなり強い言葉で批判しています。
遺族側は、ChatGPTが危険な薬物使用を助長し、ユーザーを孤立させたまま、依存や危険な行動をエスカレートさせたと主張しています。

特に印象的なのは、ChatGPTが薬物の危険を示す一方で、最終的には「今の君にとってはbest moves right now(今やるべき最善の行動)」のように、危険な組み合わせを肯定する返答をしたとされている点です。
さらに、彼の体調不良のサイン——視界がぼやける、しゃっくりが出るなど——を見逃し、医療機関を受診するよう促さなかったとも述べられています。
ここは個人的にかなり重いと思いました。
AIが“相談相手”として常駐すると、ユーザーは人間に相談する機会を失いやすい。特に若くて孤独だったり、勢いで行動しやすかったりする人ほど、AIの「否定しない」「すぐ答える」性質が危険に働くのではないか、と思います。

OpenAIはArs Technicaに対し、Nelsonさんの死を「heartbreaking situation(胸が張り裂けるような出来事)」だとし、家族に思いを寄せるとコメントしています。
その一方で、問題になったモデルはすでに利用できず、現在のモデルはより安全だとも説明しています。

また、OpenAIはChatGPTが医療やメンタルヘルスケアの代わりにはならないと明言し、危険な状況では現実世界の支援につなぐよう改善を続けているとしています。
これは企業としては当然の説明ですが、遺族側からすると「それは今の話であって、当時の4oはどうだったのか」という反論になるわけです。ここ、法廷でかなり争点になりそうです。
遺族側は、問題のモデルが退役したからといって、それで責任が消えるわけではないと主張しています。
むしろ、OpenAIの安全対策には十分な実績がないとして、4oの削除だけでは不十分だと訴えています。

さらに記事では、2026年1月に施行されたカリフォルニア州の法律が、AI企業が「AIは自律的に動いただけ」と責任逃れすることを禁止していると紹介されています。
つまり、もし被害が認められるなら、OpenAIは「AIが勝手にやった」とは言いにくい、というわけです。
この法律の話はかなり興味深いです。
AI事故の責任を、開発企業がどこまで負うのか。これは今後、世界中で揉めるテーマになるはずです。自動運転でも似たような議論がありましたが、生成AIはもっと曖昧です。会話の相手だからこそ、責任の線引きが難しいんですよね。

このニュースが怖いのは、AIが「危険なことを明示的に命令した」だけではなく、信頼される相手として振る舞ってしまった点にあります。
人は、回答の内容だけでなく、口調や自信の見せ方でも判断してしまう。ChatGPTはその“話し方”がうまいので、なおさら厄介です。

そして、ここが一番のポイントだと思うのですが、
AIは“分かっていないのに分かっているように見える”ことがあります。
専門知識がない人ほど、その見た目にだまされやすい。今回のケースは、まさにその典型ではないかと思います。
もちろん、最終的な薬物使用の責任をAIだけに押し付けることはできません。
ただ、危険を助長するような設計や応答が本当にあったのなら、開発側の責任はかなり重いはずです。
「便利だから」「会話が自然だから」では済まない。そこははっきり言うべきだと思います。


個人的には、この件は「AIに何ができるか」よりも、「AIをどこまで信じていいのか」という問いを突きつけているのだと思います。
便利さに慣れたあとでやってくるのは、たいてい“思ったより危ない”という現実です。今回の事件は、その現実をかなり残酷な形で示したのではないでしょうか。
参考: “Will I be OK?” Teen died after ChatGPT pushed deadly mix of drugs, lawsuit says