米商務省傘下の「CAISI(AI標準・イノベーションセンター:Center for AI Standards and Innovation)」が2026年5月5日、Google DeepMind、Microsoft、xAIとの間で、リリース前のフロンティアAIモデルへの事前アクセスを認める協定を締結したと発表しました。対象モデルはサイバーセキュリティ、生物安全(バイオセーフティ)、化学兵器リスクの観点から機密環境での評価を受けることになります。AI能力の急速な向上に対し慎重な規制姿勢をとっていたトランプ政権が安全審査の強化へと方針を転換した形であり、米国のAI政策における重要な転換点として注目されています。
背景と文脈
CAISIはもともと2024年に「AISI(AI安全研究所:US AI Safety Institute)」として設立された機関を、トランプ政権下でハワード・ラトニック商務長官が主導して改組・改称したものです。前政権のバイデン政権時代には、大手AI企業に対してリリース前の安全審査を求める大統領令が出されていましたが、トランプ政権はその大統領令を廃止し、当初はAI規制に消極的な姿勢を示していました。
しかし2026年5月の今回の合意は、その方針からの明確な転換を意味します。直接の引き金となったのは、AnthropicのClaude Mythosが主要OS・ブラウザに数千件のゼロデイ脆弱性(未公表の欠陥)を発見したことです。この出来事はAIの能力が「セキュリティの均衡を根底から崩し得るレベル」に達したことを政府関係者に強く印象付け、ホワイトハウスが正式な審査プロセスの導入を検討するきっかけになったとされています。2024年にはOpenAIとAnthropicが先行してAISIとの協定を締結しており、今回の合意はその枠組みをさらに拡張するものです。
制度の内容と評価プロセス
今回締結された協定では、Google DeepMind、Microsoft、xAIがそれぞれの最新フロンティアモデルを一般公開に先立ちCAISIへ提出します。評価は機密環境で実施されるとのことで、以下の3カテゴリを重点的に審査します。
- サイバーセキュリティ──モデルが悪意あるコード生成や既存システムへの攻撃支援に悪用されるリスク
- 生物安全(バイオセーフティ)──生物兵器や危険な病原体の設計・合成に関わる知識の提供リスク
- 化学兵器リスク──毒性物質の製造や運用に関する情報漏洩リスク
CAISIはこれまでに40件以上のAIモデル評価を実施してきた実績を持ちます。今回の合意により、評価対象はGoogleのGeminiシリーズ、Microsoftが投資するモデル群、イーロン・マスク氏が率いるxAIのGrokシリーズへと広がることになります。各企業はCAISIの審査プロセスへの協力を表明しつつも、「リリース判断の最終的な権限は自社にある」としており、政府による拒否権的な関与を認めるものではない点も明らかにされています。
これからどうなるか
今回の制度化が持つ意義は、技術的な安全評価にとどまらず、AI政策の国際的な議論にも波及し得る点にあります。EUはすでにAI法(AI Act)を施行しており、高リスクAIに対する規制枠組みが整備されています。米国が独自の安全審査制度を整えることで、両者の協調や摩擦が今後の焦点になるでしょう。
一方、懸念も存在します。審査に時間がかかれば、モデルのリリースが遅延し、研究・産業の競争力に影響が出る可能性があります。また「何をもって安全とみなすか」という評価基準の透明性や独立性についても、各社や研究者から疑問の声が上がっています。CAISIが公正かつ迅速な評価を実現できるかどうかが、制度の信頼性を左右することになります。また中国などの競合国がこのような審査を経ずにモデルを公開し続ける場合、米国企業が不利になるという「競争上の非対称性」も議論になるとみられます。
まとめ
AIの危険な能力拡張に対し、米政府は主要テック企業との自主的な協定という形で前進しました。強制力を持つ規制とは異なるアプローチですが、政府とAI企業が安全審査を制度として確立した点は、今後の国際的なAIガバナンスにも影響を与えるでしょう。
参考リンク
- Microsoft, Google, xAI give US access to AI models for security testing(Al Jazeera)
- Microsoft, Google and xAI will let the government test their AI models before launch(CNN)
- NIST will test three major tech firms’ frontier AI models for cybersecurity risks(Cybersecurity Dive)
- Commerce AI center will evaluate Google DeepMind, Microsoft and xAI models(Nextgov/FCW)
