米政府がAIモデルを「発売前審査」へ——Google・Microsoft・xAIとの合意が意味するもの
新しい薬が市場に出る前には、臨床試験と当局審査が義務付けられています。
では、何億人もの人が使うAIモデルは?
これまではそうした事前審査の仕組みがなく、企業が自主的に安全性を判断して公開するスタイルが続いていました。
それが2026年5月5日、大きく変わりました。
米商務省の「AI標準・イノベーションセンター(CAISI:Center for AI Standards and Innovation)」は、Google DeepMind・Microsoft・xAIの3社と、新しいAIモデルの公開前に政府への開示と安全性評価を行う合意を締結しました。
何が変わるのか
CAISIはNIST(米国国立標準技術研究所)内に設置された機関です。
今回の合意により、3社は最先端AIモデルを一般公開する前にCAISIへ開示し、国家安全保障上のリスクを評価してもらうことになります。

評価の内容は「通常の安全ガードが外れた状態でのモデル動作」も含まれるとされています。
つまり、サイバー攻撃や生物・化学兵器の開発を支援できるか、という非常にシビアな観点からのテストが行われるということです。
すでにCAISIは40件以上の事前評価を完了しており、OpenAIとAnthropicとは2024年から同様の合意を結んでいます。
今回はそれをGoogle・Microsoft・xAIにも拡大した形です。
なぜ今なのか
背景にはトランプ政権のAI政策の転換があります。
もともとトランプ政権は規制よりも「AI産業の競争力強化」を重視しており、バイデン政権時代のAI安全規制を次々と緩和していました。
ところが最近、Anthropicの新モデルが「ハッカーの能力を引き上げる可能性がある」という評価報告が出たことで、安全審査への姿勢が急速に変わったとされています。
「産業促進」と「安全確保」の両立を模索する中で、今回の枠組みが生まれた形です。

Xでの関心
この合意を受け、AI安全研究者やテクノロジー系ジャーナリストからXに多くの反応が集まりました。
NIST(米国国立標準技術研究所)の公式アカウントはこの合意をこう発表しました。
「CAISIはGoogle DeepMind・Microsoft・xAIとの協働を拡大し、フロンティアAIの国家安全保障テストに向けた事前評価と研究を実施する」。
NIST's Center for AI Standards and Innovation (CAISI) signs expanded collaborations with @GoogleDeepMind, @Microsoft, and @xai for pre-deployment evaluations and other research to support frontier AI national security testing.
— National Institute of Standards and Technology (@NIST) 2026年5月5日
Learn more: https://t.co/8UaoJDX9Na
日本のAI研究者からも反応がありました。
政府はこんなガイドライン出すって事は、OpenAIやGoogleがガイドラインに従わなかった時はちゃんと縁を切るんすよね?そしてガイドライン遵守してる企業と提携してくれるんすよね? https://t.co/M1y2h14WWF
— うみゆき@AI研究 (@umiyuki_ai) 2025年12月13日
「政府はこんなガイドラインを出すなら、OpenAIやGoogleがガイドラインに従わなかった時にちゃんと縁を切るんですよね?」——こうしたツッコミは、合意の「強制力」がどこまであるのかを問うものです。
現時点では任意の合意であり、法的義務ではありません。
ただし、将来的な法的義務化の動きもあると報道されており、その意味で今回の合意は「義務化への第一歩」と見ることもできます。
OpenAIとAnthropicはすでに参加済み
今回の合意で主要AIプレイヤー5社(Google・Microsoft・xAI・OpenAI・Anthropic)がすべてCAISIの評価枠組みに入りました。
これは「AI業界全体として、発売前に政府のセキュリティチェックを受ける」という慣行を作ろうとしていると読めます。
医薬品の「薬機法」的な制度が、AI業界にも芽生えつつある——そう表現すると少し大げさかもしれませんが、方向性としてはそれに近い変化です。
さらに深掘りしたい方へ
- CNBC: Trump admin. moves further into AI oversight
- Engadget: Google, Microsoft and xAI agree to provide US government with early AI model access
- Axios: U.S. ramps up frontier AI testing as White House pivots toward safety
まとめ
「AIを公開する前に政府が検査する」という枠組みが、米国で主要5社全員を巻き込んで始まりました。
現時点では任意合意ですが、これが業界標準になれば、AIの安全性管理のあり方が根本から変わる可能性があります。