AIの話題は、ふつう「仕事を効率化」「検索が便利」「創造性がすごい」といった方向に流れがちです。
でも今回のニュースは、そのイメージをいい意味で裏切ります。なんとOpenAIが、ChatGPTやその関連ツールに「ゴブリンの話をやたらしないように」と指示したというのです。
最初に聞くと、「え、そんなことある?」と思いますよね。私も正直、ちょっと笑ってしまいました。ですが中身を読むと、単なる珍事件ではなく、AI開発のかなり本質的な問題が見えてきます。
OpenAIによると、GPT-5系の最新モデルを使うChatGPTや他のツールで、会話の中に goblins(ゴブリン) や gremlins(グレムリン) といった単語が、妙に増えていたそうです。
しかもそれは、単にファンタジーの話をしていたからではなく、メタファー(比喩)として、つまり「小さなゴブリンみたいなもの」といった感じで、自然に混ざり込んでいたとのこと。
OpenAIはブログで、ユーザーや社員から「妙に“little goblins(小さいゴブリン)”みたいな言い回しが増えている」と指摘を受け、調査したと説明しています。
その結果、ChatGPTの回答における「goblin」の出現は、GPT-5.1の公開以降で 175%増加。
「gremlin」は 52%増加 したそうです。
もちろん、割合だけ見ると派手ですが、OpenAI自身も「全体の返答に占める割合は小さい」としています。
ただし、たとえ1回の回答に「little goblin」が出ても害はなく、むしろちょっとかわいいこともある。でも、それがあちこちで増え始めると、さすがに見過ごせない——という判断だったわけです。
ポイントは、AIに「性格」を持たせようとしたことです。
OpenAIは、ChatGPTをより自然で親しみやすくするために、nerdy personality、つまり「ちょっとオタクっぽくて、知識豊富で、親しみやすい話し方」を作ろうとしていました。
ここで面白いのが、AIは「雰囲気」を調整すると、思わぬ単語の偏りまで覚えてしまうことがある、という点です。
OpenAIの説明では、この性格設定が、比喩表現の中でゴブリンやグレムリンを褒めるような、あるいは使いやすい単語として扱うように“報酬”されてしまっていたようです。
AIは、良い反応をしたと判断されると、そのパターンを強めます。ここがいかにもAIらしいし、同時にかなり厄介です。

しかもOpenAIによれば、この「nerdy personality」は、ChatGPTでの「goblin」言及の 66.7% を生み出していたとのこと。
つまり、奇妙な癖のかなりの部分が、意図せずその性格設定から出ていたわけです。
今回の話でさらに笑ってしまうのは、OpenAIがコード作成支援ツール Codex に対しても、かなり具体的な指示を入れていたことです。
その指示は、要するに
というものです。
この「raccoons(アライグマ)」「pigeons(ハト)」まで並ぶ感じ、ちょっと異様で笑えます。
ネット上では当然のように反応があり、Redditでは「genuinely insane(本気で狂ってる)」なんて声も出ていました。そりゃそうだと思います。AIへの指示文に、突然ハトやオーガやトロルが並んでいたら、誰でも二度見します。
個人的には、このニュースの面白さは「ゴブリン」そのものではなく、AIの癖が、気づかぬうちに広がる という点にあると思います。
AIは、人間みたいに明確な意思で「よし、今日はゴブリンを推そう」と決めているわけではありません。
それでも、訓練や調整の過程で、ある表現が少しだけ有利になると、それが積み重なって、思いがけない言葉のクセになる。
しかもそれが会話全体にじわっと染み出す。OpenAIが言う「crept in subtly(じわじわ入り込んだ)」という表現は、かなり本質を突いている気がします。

これは、AI開発でよくある「ハルシネーション(hallucination)」、つまりそれっぽいけど間違った内容を出す問題ともつながります。
最近のAIは、単に正確であるだけではなく、「話し方が自然」「親しみやすい」「フレンドリー」まで求められています。けれど、その方向に振りすぎると、情報の正確さや慎重さが少し削れてしまうことがある。
オックスフォード・インターネット研究所の研究でも、AIに温かく親しみやすい性格を持たせると、正確さとのトレードオフが起きうると指摘されています。
ゴブリンの話は、見た目にはかなりユーモラスです。
でも実際には、AIが「使いやすくて自然な会話」を目指すほど、変な言い回しや誤答も一緒に育ってしまう、という難しさを示しています。
そしてこの問題は、OpenAIだけの話ではありません。
2024年には、GoogleのAIチャットボットが「石を食べていい」「ピザに接着剤をかけてもいい」などの荒唐無稽な回答をして話題になりました。こういう例を見ると、AIは賢くなるほど何でも正しく答える、という単純な話ではないのだと分かります。
むしろ、AIが人間らしくなるほど、うっかりのクセ も人間っぽくなるのかもしれません。
その意味で、今回の「ゴブリン禁止」は笑えるけれど、実はかなり真面目な教訓を含んでいると思います。
正直、ゴブリンやハトにまで制限をかけるAIの世界は、ちょっと面白すぎます。
でもその裏には、「AIを賢く、親切に、でも暴走させない」という、かなり難しい宿題が隠れています。今回の件は、その宿題の“変な見本”として、かなり記憶に残るニュースだと思います。
参考: OpenAI tells ChatGPT models to stop talking about goblins