2026年5月14日、AI向け半導体を手がけるCerebasが新規株式公開(IPO)で55億ドルを調達した。株価は当初の想定レンジ(115〜125ドル)を大幅に上回る185ドルで設定され、完全希薄化ベースの企業評価額は564億ドルに達した。2024年のIPO申請から約2年越しでの上場となる。NVIDIAが覇権を握るAIチップ市場で、推論処理に特化した独自アーキテクチャで差別化を図るCerebasの上場は、2026年のAI産業における最初の大型IPOとして注目を集めた。
背景と文脈
Cerebasは2016年創業のシリコンバレー企業だ。NVIDIAのGPUとは異なるアーキテクチャ「Wafer-Scale Engine(WSE)」を開発し、単一ウェーハ上に膨大な数のプロセッシングコアを集積する独自設計で知られる。GPUが汎用的な並列処理を得意とするのに対し、Cerebasの設計はニューラルネットワークの計算に特化しており、大規模LLMの推論処理で高いスループットを発揮する。
IPOへの道のりは平坦ではなかった。同社は2024年にIPOを申請したが、アブダビの投資ファンドGroup 42からの大規模投資が外国投資委員会(CFIUS)の審査にかかり、手続きが長期化した。当時はGroup 42が売上のほぼ全てを占めていたため、投資家は「単一顧客依存」のリスクを懸念した。
2026年4月の再申告でシナリオは一変した。売上が前年比76%増の5億1000万ドルに倍増し、複数の顧客からの収益を報告。前年は約5億ドルの赤字だったのに対し、2億3780万ドルの純利益を計上した。顧客にはOpenAI、AWS、サウジアラビアのMohamed bin Zayed大学などが並ぶ。この急激な収益改善が投資家の態度を転換させ、IPO価格は想定上限から30ドル超引き上げられた。
技術/ビジネス面

Cerebasの競争優位は「推論に特化したチップ」にある。生成AIの普及に伴い、AIワークロードは「学習(Training)」から「推論(Inference)」へとシフトしつつある。新しいモデルの学習コストは依然高いが、学習済みモデルをリアルタイムで使う推論は、より多くのエンドポイントで頻繁に発生する。NVIDIAのH100・B200シリーズは学習と推論の両方をカバーするが、Cerebasは推論の速度とスループットに絞って最適化している。
OpenAIが顧客に名を連ねることは象徴的だ。AIモデル開発の最前線企業が自社モデルの推論処理にCerebasを採用しているという事実は、製品の実力を示す。AWSとの連携も、クラウドベースの推論インフラとしての展開を示唆している。
CEOのAndrew Feldmanは保有株式の価値が約19億ドル、CTOのSean Lieは約10億ドルに達する。二人の創業者にとって、10年間の開発への大きな報酬となった。IPOを主幹事したのはGoldman SachsとCitigroup。公開価格185ドルは強い需要超過を反映しており、上場初日からの株価動向が注目される。
これからどうなるか
Cerebasの上場は、AI半導体市場の競争激化を象徴するイベントだ。NVIDIAが市場の80%超を握るとされる中、専用チップメーカーが資本市場から高評価を受けたことは「NVIDIA以外のプレーヤーにも機会がある」というシグナルになる。
調達した55億ドルの用途として、製造能力の拡張と研究開発への投資が見込まれる。TSMCとの製造関係を深め、次世代Wafer-Scale Engineの開発を加速させるだろう。
一方でリスクも存在する。NVIDIAはBlackwellアーキテクチャで推論の効率も大幅に改善しており、専用チップへの需要が相対化される可能性がある。Googleの「TPU」やAmazonの「Trainium/Inferentia」など、クラウド大手の自社チップ開発も競合要因だ。
2026年のIPOシーズンではAI関連スタートアップの上場が相次ぐとみられている。Cerebasの成功は、次を狙う企業や投資家に対して「AIチップ・インフラへの需要は依然旺盛」というメッセージを発した。
まとめ
Cerebasが55億ドルを調達し、564億ドルの企業評価額で上場を果たした。推論に特化したチップアーキテクチャと急速な収益改善が投資家を引きつけた。2026年のAI関連IPOラッシュの先陣となった本案件は、NVIDIAへの挑戦者として市場の注目を集め続けるだろう。
参考リンク
アイキャッチ画像: Photo by Nick Chong on Unsplash
