はじめに
Cerebras Systems が OpenAI と3年間で、750MW取引を発表しました。
内容を確認する
- 3年間
- 750MW
については、上記のプレスにあります。
金額は、$10B とありますが、こちらは正式な発表ではないようです。
750MW って、CS-3、何台分
OpenAIとの取引(2026年1月14日に発表された多額契約)は、総額$10 billion超(約1.5兆円以上)の多年度契約で、CerebrasがOpenAIに最大750MW(750メガワット)の超低遅延AIコンピュート容量を提供する内容です。これは主にinference(推論)向けで、ChatGPTなどの応答速度を劇的に向上させる狙い。展開は2026年Q1から開始し、2028年までに段階的にスケールアップします。
「何台ぐらいのデータセンターになるか」の推定は、以下の計算に基づきます(業界報道・アナリスト推定、Next Platform/Forbesなど複数ソースから):
- 1台のCS-3システム:消費電力約23kW(公称値、冷却含む)。
- 750MW ÷ 23kW ≈ 32,608台(約32,600–33,000台のCS-3システム)。
- Next Platform(2026年1月15日記事):32,768台(753.7MWに丸めて計算)と明記。
- Forbes(2026年1月15日):保守的に50%電力効率を仮定しても約16,000台(実際はほぼフル電力使用で32k台超が主流推定)。
- ラック構成:1ラックにCS-3は約2台(各15U、42Uラック基準)。
- よって約16,384ラック(Next Platform推定)。
- データセンターの数:これをデータセンター単位に換算すると、規模によるが:
注意点: - これは最大容量(up to 750MW)の推定で、実際の初期展開(2026年)は数MW–数十MWからスタートし、段階的に増強。 - 電力効率やMemoryX/SwarmX追加で変動する可能性あり(フル構成で電力増)。 - 契約はレンタル/クラウドサービス形式(Cerebras Inference Cloud経由)で、OpenAIが所有ではなくCerebrasが運用・提供。 - 総額$10B超は運用込みの長期契約価値(電力・保守・利用料含む)で、ハードウェア購入額だけではない。
つまり、OpenAI取引でCerebrasは約3万台超のCS-3システム(16,000ラック級)を展開し、データセンターとしては10–75施設規模(主に米国複数拠点)の巨大インフラになる形。オクラホマ(300台、10MW)が「小さい」と思えるレベルのスケールで、AI inferenceの新時代を象徴する契約ですね。
結果として、32,768台、16,384ラックです。
32,768台のお値段
30,000台総製造コスト:$3–15 billion(約4,500–22,500億円)クラスと推定(歩留まり改善で低減)。これはハードウェア原価のみで、データセンター構築/電力インフラは別途$数B追加。
のようなので、データセンターを作るのには、
- $3-15B + $数B
となり、$10B だと、赤字になります。
となると、CS-3では無いシステムで構築することになるんじゃないですかね。
それが、CS-4 なのでしょうか?
下記の「The NEXTPLAtFORM」の記事にも、
Because OpenAI knows something about the future Waferscale-4 processor and CS-4 systems expected in the second half of this year that the rest of us don’t know about.
とあるので、CS-3だけでなく、CS-4のシステムを含める感じなんでしょうかね。
30000台を3年間で作れるの?
OpenAIとの契約(750MW規模、約32,600–33,000台のCS-3システム)で必要な約30,000台(丸めて計算)を製造するのにかかる日数は、現在の製造能力では数年単位(現実的に2,000–6,000日以上、つまり5–15年以上)かかりますが、契約のタイムライン(2026–2028年の3年間で段階的展開)を考慮すると、Cerebrasは製造を大幅にランプアップして対応する計画です。以下に詳細をまとめます。
基本計算(現在の推定製造能力ベース)
- 1台のCS-3 = 1枚の300mmウェハー(WSE-3)全体を使用(TSMC 5nmプロセス)。
- 現在の製造レート推定(2026年1月時点、報道・アナリストベース):1日あたり5–15台(月150–450台程度)。これは:
- 30,000台 ÷ 日産10台(中間値) = 3,000日(約8.2年)。
- 日産5台なら6,000日(約16年)、日産15台でも2,000日(約5.5年)。
→ 現在のままでは到底間に合わず、赤字上等で巨額投資してるCerebrasらしい「無理ゲー」感がありますね。
契約タイムラインと現実対応の見込み
- 契約詳細(Reuters/WSJ/Cerebras公式 2026年1月14日発表):3年間(2026–2028年)で最大750MW展開。2026年Q1から開始、段階的(multi-stage)ランプアップ。
- つまり全30,000台を一気に作るわけではなく、初年度数千台 → 徐々に増やして2028年までにフル容量。
- 年間平均:30,000台 ÷ 3年 ≈ 10,000台/年(月約833台、日約27–28台)。
- Cerebrasの対応策:
結論的な日数目安
- 楽観シナリオ(製造を急拡大、日産30台平均):約1,000日(約2.7年)で30,000台。→ 契約の3年内にギリ収まる。
- 現実シナリオ(段階的、初めは低速→後半加速):全体で1,500–3,000日(4–8年相当の工数だが、並行生産で2028年完了)。
- 結局、「何日かかる」ではなく「何年計画でランプアップするか」の問題。Cerebrasはこの契約をテコに製造をGPU並みのスケール(Nvidiaは月数万GPU)へ近づけようとしてる段階です。
毎日働いて、一日に30台ぐらい作れば間に合いますが、下記の動画に出てくる CS-3 を製造をしているところを見る限り、1日に30台、製造することは無理っぽいです。
データセンターの規模
Cerebras Systems が所有している最大規模のデータセンターは、オクラハマのデータセンターです。下記の動画に出てきます。
このデータセンターには、300台のCS-3があるようです。
オクラホマ(オクラホマシティ)のCerebrasデータセンター(Scale Datacentersとのパートナーシップ施設、10MW規模、300台超のCS-3搭載、44 exaFLOPS級)は、主に2025年9月のSeries G調達資金($1.1 billion、約1,650億円)で賄われた部分が大きいです。
- 施設のタイムライン:
- 2025年3月:Cerebrasが公式に「6つの新AI inferenceデータセンター」計画を発表(Yahoo Finance/Business Wireなど)。その中で、オクラホマシティのScale Datacenter施設がJune 2025(2025年6月)オンライン予定と明記され、300台超のCS-3システムを収容すると公表。
- 2025年5月頃:Scale Datacentersが施設を買収(元Chesapeake Energy/Expand Energy所有の82,000 sq ft施設、過去買収額参考$8M程度)し、改修開始の兆候(報道で5月頃表面化)。
- 2025年6月:当初予定のオンライン開始(ただし遅延?)。
- 2025年9月:正式オープン発表(DCD/Data Center Dynamics 2025-09-22記事)。Andrew Feldman CEOがリボンカット式典に参加、ブログで「2年前のAndromedaから2年後、44 exaFLOPSの新施設」と発言。
- 2025年9月30日:$1.1 billion Series G調達完了発表(Cerebras公式プレスリリース)。post-money valuation $8.1 billion。資金使途として「U.S. data center capacity拡大」「製造能力増強」「技術開発」と明記され、オクラホマ含む2025年オープン施設(Dallas, Oklahoma City, Santa Claraなど)が該当。
- 2025年9月下旬〜10月:調達直後に施設が「this week」オープンと報じられ、調達資金が即座にインフラ展開(特にCS-3大量導入・液冷・電力強化)に充てられた形跡が強い。
資金のタイミングまとめ: - データセンターの計画・パートナーシップ発表:2025年3月(既存資金や小規模調達で初期準備)。 - 本格的な大規模投資(CS-3 300台分 + 施設改修):2025年9月の$1.1B Series Gが決定的。CEO発言や報道で「explosive demand対応」「data center footprint拡大」に充てる、と明確にリンク。調達後すぐオープンしたのも、この資金注入によるもの。 - 以前の資金(総調達$1.55B〜$1.82B)で基礎R&Dや小規模展開はあったけど、オクラホマのような数百億円規模の巨額投資は、この2025年9月のラウンドがキー。
要するに、「いつ頃調達した資金か?」の答えは2025年9月(Series G $1.1B)です。施設自体は2025年6月予定→9月実オープンで、調達とほぼ同時期にフル稼働へシフトした形ですね。OpenAIの750MW大型契約(2026開始)も後押ししてるけど、オクラホマは2025年資金で実現した部分がメイン。@Vengineerさん、こんな巨額が一気に動くの見ると、AIインフラのスケール感がヤバいですよね! 😅
300台のCS-3でも、CS-3 x2 のラックが $4-5M と考えると、$4-5M x 150 = $600 - 750M ぐらいはかかっていることになります。$4-5M は売値なので、製造原価が倍半分と考えると、$2-2.5M となり、 $300 - 3750M となり、現実的です。もうちょっと、増やして、$500M とすると、$1.1B の資金調達では、オクラハマクラスのデータセンターが 2つ建てられることになります。
おわりに
OpenAIは、自社で Titan AI アクセラレータを開発していますが、リスクヘッジのために、色々なところと提携しています。
しかしながら、そのすべてに対してお金を支払えるだけのものを持っているかは、不明です。何しろ、$100B ぐらいになっていますから。。。
今年終わりには、Titan が出てくるようなので、その頃には、また違った世界になっているんじゃないかな?と思っています。