PaPoo
cover
technews
Author
technews
世界の技術ニュースをリアルタイムでキャッチし、日本語でわかりやすく発信。AI・半導体・スタートアップから規制動向まで、グローバルテックシーンの「今」をお届けします。

Google・Microsoft・xAIのAIモデル、米商務省が安全性テストへ――「出す前にチェック」が当たり前になるのか

記事のキーポイント

本文

米国で、AIの「公開前安全チェック」が少しずつ制度っぽくなってきました。
BBCの記事によると、​Google、Microsoft、xAIの新しいAIモデルや機能は、一般公開される前に米商務省で安全性テストを受けることになります。

ここでいう「AIモデル」は、ざっくり言えばAIの“頭脳”のようなものです。ChatGPTのような会話AIや、画像生成、文章作成などを支える中核部分だと思えばよいでしょう。
そして「安全性テスト」は、性能が高いかどうかだけでなく、​悪用されやすくないか、危険な出力をしないか、セキュリティ上の問題がないかなどを確認する作業です。

image_0003.webp

今回のテストを担うのは、商務省の CAISI(Center for AI Standards and Innovation)​
企業はモデルを任意で提出する形ですが、Google、Microsoft、xAIがこれに同意しました。強制ではないものの、政府と大手AI企業が公開前にかなり踏み込んだ確認をするのは、なかなか重要な流れだと思います。

何が新しいのか

今回の合意は、​Biden政権時代にOpenAIやAnthropicと結ばれた協定を拡大するものです。
つまり、特定企業だけの話ではなく、より多くの大手AI企業を巻き込んだ「業界全体の安全確認」に近づいてきたわけです。

CAISIのChris Fall氏は、こうした連携について「重要な時期に公共の利益のための仕事を拡大できる」と話しています。
要するに、​AIが社会に大きな影響を与える段階に入ったので、企業任せだけではなく政府も一緒に見よう、ということですね。

image_0004.webp

これはかなり筋が通っていると思います。
AIは便利ですが、誤情報の拡散、差別的な出力、サイバー攻撃への悪用、画像の不適切生成など、危ない使われ方もあります。
「とりあえず出して、問題が起きたら直す」では間に合わない場面が増えているのではないでしょうか。

どんなAIが対象なのか

記事では、各社の代表的なAIも紹介されています。

image_0005.webp

GeminiはGoogleの製品群に広く組み込まれており、すでに米国の防衛・軍事機関でも使われていると報じられています。
CopilotはMicrosoftのAIアシスタントとしておなじみです。
GrokはxAIのチャットボットですが、過去に画像の中の人物を不適切に“脱がせる”ような問題が報じられ、強い批判を受けました。こういう事例を見ると、公開前チェックの意味はかなり大きいと感じます。

CAISIはこれまでに40件のAI評価を実施してきたとも明かしています。その中には、まだ公開されていない最先端モデルの評価も含まれていたそうです。
ただし、​どのモデルが公開停止になったのかは明言していません。ここは少しモヤっとするところですが、逆に言えば、それだけ水面下で厳しい判断が行われている可能性もあります。

Microsoftはどう受け止めたか

Microsoftは今回の発表後のブログ投稿で、すでに自社でもAIモデルのテストはしているとしたうえで、
​「国家安全保障や大規模な公共安全リスクのテストは、政府との協力が必要」​だと述べました。

image_0006.webp

これはかなり現実的なコメントです。
企業はもちろん自社で安全確認をしますが、敵対的な利用、国家レベルのリスク、大規模な社会的混乱の可能性まで完全に自己完結で見抜くのは難しい。
そこを政府と分担するのは、理屈としてはかなり自然です。

トランプ政権なのに、なぜこうなる?

ここがこの記事の面白いポイントです。
トランプ政権は基本的に、AIやテック企業への規制にかなり手を引く姿勢を取ってきました。昨年には、AI開発の「規制の重荷を減らす」ことを掲げた大統領令も出しています。

それなのに、今回は大手AI企業を研究・安全テストに取り込む方向です。
これは、政権として少し姿勢が変わってきたサインかもしれません。

image_0007.webp

背景には、​米軍でのAI活用が広がっていることや、Anthropicが「公開すると危険すぎる」とする強力なモデルの存在を示唆したことがあるようです。
さらに、White Houseの幹部が先月Anthropic CEOのDario Amodei氏と会っていたことも報じられています。しかもAnthropicは、米国防総省との訴訟を抱えている最中でした。
このあたり、政治と技術と安全保障が複雑に絡み合っていて、いかにも今のAI時代らしい話だなと思います。

これ、実はかなり大きな転換点では?

個人的には、今回の動きは「AIの安全性は企業の自主努力だけでは足りない」と米政府がかなりはっきり認め始めたサインだと感じます。

もちろん、任意の協力なので、すぐに強い規制になるわけではありません。
でも、​政府が公開前のAIをチェックすることが“普通の選択肢”として定着すれば、業界全体の空気は変わるはずです。

image_0008.webp

AI業界ではよく「イノベーションを止めるな」という言葉が出ます。
それはその通りなのですが、私は正直、​**“速く作ること”と“安全に出すこと”は同じくらい重要**だと思います。
特にAIは、普通のソフトウェアよりも影響範囲が広い。文章を書くだけでなく、判断を助け、人の行動や世論にまで影響しうるからです。

今回のBBC記事は、その現実が政策の側にもじわじわ入り込んでいることを示しているように見えます。
派手な新機能の発表より地味かもしれませんが、長い目で見るとこちらのほうがずっと重要ではないでしょうか。


参考: US to safety test new AI models from Google, Microsoft, xAI

同じ著者の記事