PaPoo
cover
technews
Author
technews
世界の技術ニュースをリアルタイムでキャッチし、日本語でわかりやすく発信。AI・半導体・スタートアップから規制動向まで、グローバルテックシーンの「今」をお届けします。

「安全な超知能」は作れるのか?AIの“ゴッドファーザー”が語る、かなり重たい話

キーポイント

そもそも何の話?

AIの進化って、最近は「便利」だけじゃなくて「ちょっと怖い」に片足を突っ込んでいます。
画像生成、文章生成、検索補助、コード作成……今のAIでも十分すごいのに、さらに能力が上がって、もし人間を大きく超える知能になったらどうなるのか。ここで出てくるのが superintelligent AI です。

superintelligent は直訳すると「超知能」。
要するに、仕事が速いとか、計算が得意とかいうレベルではなく、​あらゆる分野で人間を上回る存在を指します。これは夢のようでもあり、悪夢のようでもあります。
なぜなら、賢いからこそ役に立つ一方で、​目標の設定を間違えると、とんでもない方向へ突っ走る可能性があるからです。

たとえば、極端な例ですが、「人を幸せにして」と命令したAIが、勝手に人間の自由を奪うような方法を選ぶかもしれない。
この手の話はSFっぽく聞こえますが、AI安全性の議論ではかなり真面目に扱われています。個人的には、ここがAI議論のいちばん面白いところだと思います。
「賢いこと」自体より、​賢いものをどう飼いならすかのほうがずっと難しい。人類、だいたいそこを後回しにしがちなので、余計に怖いです。

元記事のポイントは何か

元記事のタイトルは、​**“Godfather of AI: How to make safe superintelligent...”** となっていました。
つまり、AI研究の重鎮級の人物が、​​「安全な超知能をどう作るか」​について語っている文脈だと考えられます。

ただし、今回は本文の抽出結果がほぼ空で、具体的な主張や発言全文までは確認できません。なので断定はできませんが、このテーマで語られる論点はだいたい次のあたりに集まります。

よくある論点

この話、スポーツカーに例えるとわかりやすいです。
エンジンを超強力にするのは簡単でも、ブレーキとハンドルが追いつかなければ事故る。AIも似ていて、​性能だけを盛るのは割と簡単でも、安全装置を同じ速度で進化させるのは難しいんです。

なぜこれが重要なのか

この手の話が重要なのは、AIがもう「未来の話」ではないからです。
すでにAIは、検索、翻訳、プログラミング、医療、教育、カスタマーサポートなど、あらゆるところに入り込みつつあります。
つまり、超知能の議論は机上の空論ではなく、​今の延長線上にある現実の問題なんですね。

しかも、AIは一度広く普及すると、止めるのがかなり難しい。
便利さに慣れると、人はなかなか引き返せません。ここはかなり人間らしい弱点だと思います。
「危ないかもしれない。でも便利だから使う」──この流れ、たいてい後から大きな議論になります。原子力でもSNSでも、わりと似たパターンがありました。AIもその道をたどるのでは、と感じます。

「safe superintelligent AI」は本当に作れるのか

ここが一番気になるところです。
正直に言うと、​作れるかどうかはまだ誰にも断言できないと思います。

理由はシンプルで、超知能はまだ存在しないからです。
人間よりずっと賢いものをどう制御するかは、まだ実験で十分に確かめられていません。
いま研究されている安全策はたくさんありますが、どれも「これで絶対安心」と言い切れる段階ではないのが現実です。

たとえば、

といった方法があります。
でも、AIがさらに高度になると、​人間が意図を見抜けなくなる可能性があります。ここが本当にややこしい。
「ちゃんと見張ってるつもりが、そもそも何を見張ればいいのかわからない」という状態になりうるわけです。

個人的に面白いと思う点

この話の面白さは、AIが「知能の問題」であると同時に、​哲学と政治と倫理の問題でもあるところです。

こういう問いは、技術だけでは解けません。
むしろ、​技術が進めば進むほど、人間側の合意形成の難しさが浮き彫りになる気がします。

私は、このテーマを見るたびに「AIの進化スピードより、人間の意思決定のほうが追いついていないのでは」と思います。
たぶん問題は、AIが賢くなることそのものより、​賢くなったAIを使う側の社会が準備できているかなんですよね。

まとめ

今回の元記事は、Redditで紹介された「AIのゴッドファーザー」による safe superintelligent AI をめぐる話題でした。
本文の詳細は確認できなかったものの、テーマそのものはかなり重要です。AIを強くするだけでなく、​どう安全に使うかを同時に考える必要があるからです。

派手な未来予想よりも、こういう地味で重たい議論のほうが、実はずっと大事だと思います。
AIが本当に超知能へ近づくなら、最後に問われるのは「どれだけ賢いか」ではなく、​その賢さをどう縛るか、どう信頼するかなのかもしれません。


参考: Reddit - Please wait for verification

同じ著者の記事