OpenAIが、ChatGPTの新しいデフォルトモデル「GPT-5.5 Instant」を発表しました。
一番の売りは、AIがもっともらしい嘘をつく“hallucination”がかなり減ったこと。しかも、地味にうれしいのが無駄な絵文字も減るらしいです。こういう改善、派手さはないけれど、毎日使う人ほど効いてくるんですよね。


The Vergeの記事によると、OpenAIはChatGPTの新しい標準モデルとして、GPT-5.5 Instantを導入します。
これまでのAIにずっとつきまとってきた問題が、いわゆるhallucinationです。日本語では「幻覚」と訳されることが多いですが、要するにAIが事実じゃないことを、それっぽく言い切ってしまう現象です。
これ、AIを使ったことがある人なら「あるある」と感じるはずです。
質問したら、堂々と答えるのに中身がズレている。しかも口調だけは妙に自信満々。あれは本当に困ります。特に医療・法律・金融みたいな分野では、笑い話では済みません。

OpenAIは今回、内部評価の結果として、GPT-5.5 InstantはGPT-5.3のInstantモデルよりも、
“52.5% fewer hallucinated claims”、つまり幻覚的な主張が52.5%減ったとしています。

さらに、特に難しい会話でユーザーから誤りが指摘されたケースでも、誤った主張を37.3%削減したとのこと。
この数字、かなり強めです。もちろん「内部評価」という前提はありますが、それでも少なくともOpenAIが“今いちばん直したい弱点”に本気で手を入れているのは伝わってきます。

今回の記事で個人的にちょっと面白いと思ったのは、性能改善だけでなく、振る舞いの調整も入っている点です。
GPT-5.5 Instantは、

とされています。

特に「gratuitous emojis が減る」というのは、地味だけどかなり良い改善だと思います。
AIの返事って、時々やたらノリが軽かったり、必要以上に親しげだったりしますよね。便利ではあるけど、少し疲れることもある。だから**“静かに、ちゃんと答える”方向**に寄せるのは、実はかなり実用的です。

OpenAIは今回、ChatGPTの個人向け機能も強化しています。
ChatGPTは、以前のチャットやGmailなどから文脈を取り込み、よりパーソナルな回答を返せるようになるとのことです。

ここで重要なのは、便利さと同時に透明性も少し上がっていること。
新しい memory sources という機能では、その回答にどんな情報が使われたかをChatGPTが表示してくれます。さらに、ユーザーはその情報を削除したり、修正したりできるそうです。
これはかなり大事です。
AIの記憶機能って、便利な反面、「なぜこの答えになったの?」が見えにくいと不安になります。
その意味で、**“覚える”だけじゃなく“何を参照したか見せる”**方向に進んでいるのは、かなり健全だと思います。

OpenAIは、GPT-5.5 Instantを火曜日から全ChatGPTユーザーへ順次展開するとしています。
ただし、従来の GPT-5.3 Instant もすぐには消えず、3か月間は選択可能です。その後、退役予定とのこと。

この「しばらく併用できる」方針は、わりと親切です。
過去に古いモデルを惜しむ声があったようで、OpenAIもその反応を踏まえているのでしょう。AIって、単に新しいほうが正義とは限らず、慣れた応答のクセに安心感を持つ人もいますからね。

派手な新機能ではありません。
「ついにAIが世界を変える!」みたいな話でもないです。

でも、個人的にはこういう改善こそ本当に使い勝手を左右すると思います。
AIは、話題性よりも日常の信頼感が命です。
嘘が少ない、勝手に盛らない、無駄にしゃべりすぎない。しかも必要なら過去の文脈をちゃんと拾う。こういう方向の進化は、見た目は地味でも、実用面ではかなり大きいです。
もちろん、OpenAIの主張は内部評価に基づくものなので、実際の利用環境でどこまで改善を体感できるかは、これから見ていく必要があります。
それでも、少なくとも今回の発表は、「AIをもっと賢く」だけでなく「もっと信用できるように」する方向にかなり踏み込んでいる、と見てよさそうです。

参考: OpenAI claims ChatGPT’s new default model hallucinates way less