シリコンバレーでは、AI安全性に関する激しい議論が展開されている。OpenAIや政府高官からは、AI安全性推進団体が自己利益のために活動しているとの批判が上がった。一方、団体側はこれを批評家への威嚇行為と反発している。AI技術の急速な発展と適切な規制との間で、業界と政策立案者の間で緊張が高まっている。この攻防は、AI安全性の未来を左右する重要な局面を迎えている。
AI安全性議論の火種:OpenAIと政府高官の見解
AI安全性に関する議論がシリコンバレーで激化している。ホワイトハウスのAI・暗号政策責任者デイビッド・サックス氏やOpenAIの最高戦略責任者ジェイソン・クォン氏が、AI安全性推進団体を批判する発言をした。
彼らは、一部のAI安全性団体が自己の利益や、背後にいる資産家の意向で活動していると主張した。これに対し、AI安全性団体はTechCrunchの取材に対し、この批判が批評家を威嚇する最新の試みであると反発している。
カリフォルニア州でAI安全性法案SB 1047が否決された背景には、ベンチャーキャピタル企業が流した「スタートアップ創業者が投獄される」という噂があったとされる。ブルッキングス研究所はこれを誤報と指摘したが、ギャビン・ニューサム州知事は最終的に法案に拒否権を発動した。
このようなAI安全性議論の火種は、AI開発の加速を優先したい業界の思惑と、社会的な安全性への懸念との間で生じている。ホワイトハウスのAI上級政策顧問スリラム・クリシュナン氏も、安全性提唱者を「現実離れしている」と評し、実際のAIユーザーとの対話を促した。
シリコンバレーからの批判:Anthropicと「規制捕獲」
デイビッド・サックス氏は2025年10月14日、SNSプラットフォームXへの投稿で、大手AI開発企業Anthropicを厳しく批判した。同氏は、Anthropicが「恐怖を煽る巧妙な規制捕獲戦略」を展開していると指摘した。これは、Anthropic共同創業者ジャック・クラーク氏のAIへの懸念を表明したエッセイに応じたものだ。
Anthropicは、AIが雇用喪失、サイバー攻撃、社会への壊滅的な損害に寄与する可能性について懸念を表明してきた。TechCrunchの報道によると、Anthropicは2025年9月に成立したカリフォルニア州のAI安全性法案SB 53を唯一支持した主要AIラボだった。
サックス氏は、Anthropicが自社に有利な法律を通し、中小企業を事務作業で圧倒しようとしていると主張している。規制捕獲とは、特定の企業が自己に有利な規制を策定させることで、市場における競争優位を確立しようとする行為を指す。これは、AI業界の公平な競争環境に大きな影響を及ぼす論点だ。
同氏はまた、Anthropicが「一貫してトランプ政権の敵対者として位置づけられてきた」とも言及した。これは規制を巡る攻防が、政治的な駆け引きとも密接に関連していることを示唆している。
OpenAIの行動:非営利団体への召喚状と内部の懸念
OpenAIのジェイソン・クォン最高戦略責任者は2025年10月10日、EncodeのようなAI安全性関連の非営利団体に召喚状を送付した理由をXで説明した。イーロン・マスク氏がOpenAIを提訴した後、いくつかの団体がOpenAIの事業再編に反対の意を示したため、同社は資金源や連携に透明性の疑問を抱いたという。
NBCニュースの報道によると、OpenAIはEncodeを含む7つの非営利団体に対し、マスク氏やMetaのマーク・ザッカーバーグ氏との通信記録、およびSB 53法案への支持に関する情報提供を求めた。このような行為は、言論の自由や研究の独立性に対する圧力と受け取られかねない。
OpenAI内部からも、この動きに対する懸念が表明された。同社のミッション・アライメント責任者ジョシュア・アチアム氏は、自身のXへの投稿で「これはあまり良いことではないようだ」と述べ、キャリアリスクを覚悟の上で懸念を表明した。これは、OpenAI内で安全性と事業拡大のバランスを巡る意見対立があることを示唆している。
AI安全性非営利団体Alliance for Secure AIのCEO、ブレンダン・スタインハウザー氏は、OpenAIの行動を「批評家を沈黙させ、威嚇し、他の非営利団体が同様の行動を取るのを思いとどまらせる意図がある」と指摘した。AI安全性に関する議論の健全性を保つためには、多様な声が尊重される環境が不可欠だ。
AI安全性の攻防:成長と規制の狭間で高まる動き
シリコンバレーでは、責任あるAI開発と、AIを大規模な消費者向け製品として展開することとの間で、常に緊張状態が続いている。AI安全性への懸念に対処することは、業界の急速な成長を犠牲にする可能性があるという見方が一部の推進派には存在する。
AIへの投資が米国経済の多くの部分を支えている現状を考えると、過剰な規制がイノベーションを阻害するのではないかという懸念は理解できる。しかし、過去数年にわたり規制がほとんどない状態でAIが進展してきた後、AI安全性運動は2026年に向けて実質的な勢いを増している。
ピュー・リサーチ・センターの調査では、米国人の約半数がAIに対して期待よりも懸念を抱いていることが示された。また、別の研究では、有権者がAIによる壊滅的なリスクよりも、雇用喪失やディープフェイクをより懸念していることが判明している。
これらの調査結果は、AI安全性議論が、単なる技術的なリスクだけでなく、社会経済的な影響にも焦点を当てるべきであることを示唆する。シリコンバレーが安全性重視の団体に対抗しようとする動き自体が、彼らの活動が影響力を持ち始めている証拠と解釈できる。AI安全性と成長のバランスをどう取るかは、今後の技術革新と社会受容の鍵となる。

