Vengineerの妄想

人生を妄想しています。

教材としての Tenstorrent Blackhole PCIe Board

はじめに

このブログでも何度も取り上げている、Tenstorrent Blackhole PCIe Board。p100a が $999、p150a が $1399 です。

BlackholeをAIアクセラレータという道具として使うためには、$999, $1,399 で PCIe Board を購入し、PCにさして使うことになりますが、 AIアクセラレータがどのようにして動いているのかについては、PCIe Board を購入する前に、github にあるソフトウェアについて調べれば、色々なことが学べます。

NotebookLMの音声概要

AIアクセラレータとして動く前に必要なソフトウェア

BlackholeがAIアクセラレータとして動く前に必要なソフトウェアは、次のようなものでs。

AIアクセラレータとして動くために必要なソフトウェア

この他にも

おわりに

上記のソフトウェアは、全部オープンソースでかつ、無料です。

BlackholeというASICを使う上での仕様書は公開されていませんが、上記のソフトウェアの中を探ると色々なことがわかります。

関連ブログ

vengineer.hatenablog.com

Open Chiplet Architecture とは?

はじめに

下記のXのtenstorrentの投稿の写真に、「Open Chiplet Architecture」なる文字がありました。

写真を拡大します。

今回は、Open Chiplet Architecture について、調べてみました。

NotebookLMの音声概要

Open Chiplet Architecture とは?

Google君に教えてもらったサイトは、

OCA White Paper なるものがありました。

下記の図は、上記の White Paper からの引用です。

  • Base Chiplet
  • CPU Chiplet
  • Memory Chiplet
  • AI Chiplet

Protocol Bridge は、UCIe + I2 から構成されています。Base Chipletは、3つのChiplet と接続するために、1つの Protocol Bridge と 2つの UCIe を持っています。 CPU Chiplet, Memory Chiplet, AI Chiplet は、1つの Protocol Chiplet を持っています。

もう一つの例です。

  • CPU Chiplet
  • CPU Chiplet
  • Accelerator Chiplet
  • Accelerator Chiplet

何故か? CPU Chiplet なのに、GPU Cores になっています。Chiplet 間は、Protocal Bridge (Main Band + I2C) で接続しています。各Chipletには、2組のProtocol Bridge があります。

おわりに

下記のブログにも書きましたが、

vengineer.hatenablog.com

も Open Chiplet Architecture に準拠して開発しているんでしょうかね。

Base Chipletがないので、どっちのケースなんでしょうかね。。。

Groqの今後を妄想する

はじめに

昨日、GroqCloud についてブログに残しました。

現在、GroqCloud で使われているものは、GF12 で開発した GroqChip1 を8個搭載した x86_64 x 2 ベースのノードが9個入った GroqRack です。

Rackの裏側はこんな感じでケーブルがいっぱいです。

ピンクのケーブルは、GroqCard (GroqChip1が載っているPCIe Card) から出ているチップ間の接続のためのものです。

vengineer.hatenablog.com

拡大したものが下図です。各GroqCardから4本のケーブルが出ています。

また、真ん中のスロットに刺さっている、GbE Card (どのぐらいの転送レートかはわかりません) からは2本、ケーブルが出ています。

今回は、この GroqRack がどのようになっていくのかを妄想します。

追記)、2025.07.20

下記のYoutubeの動画からのスライドを説明のために引用します。

www.youtube.com

NotebookLMの音声概要

2nd Gen System

下記のブログでは、

  • 2nd Gen System
  • 3rd Gen System

について、妄想しました。

vengineer.hatenablog.com

現在の GroqNode をベースにした GroqRack では、

  • GroqNode x 9 = 72 x GroqChip1

です。

2nd Gen System になると、GroqChip1 のままですが、Rack に入るチップ数は、

  • 4128/33 = 125.09、125/32 = 4、4 x 32 = 128 GroqChip1

となります。

Rack当たり2倍のGroqChip1 が搭載されることになります。

3rd Gen System

3rd Gen System では、GroqChip2 が搭載され、チップの性能が上がります。また、Rack当たりのChip数は、

  • 680064/675 = 1007 / 336 = 3、3 x 336 = 1008 GroqChip2

となります。Rack当たり約8倍です。

整理

ここまでで、Rack当たりのチップ数は、

  • 現在のシステム => 2nd Gen System : 2倍
  • 2nd Gen System => 3rd Gen System : 8倍

V2 2nd Gen System

下記のブログに残した V2 2nd Gen System では、2nd Gen System の GroqChip1 を GroqChip2 にしたものがあるようです。

となると、

  • 現在のシステム => V1 2nd Gen System : 2倍
  • V1 2nd Gen System => V2 2nd Gen System : GroqChip1 => GroqChip2
  • V2 2nd Gen System => V3 3rd Gen System : 8倍

ということになりました。

おわりに

Groqは、まだ、現在のシステムしかリリースしていません。ということは、まだ、

  • V1 2nd Gen System
  • V2 2nd Gen System
  • V3 3rd Gen System

と3つのPlatformの構想があるということです。

ということで、Groqはまだまだ資金が必要であることがわかります。

また、現行のシステム => V1 2nd Gen System に対しては、新規に開発するものは、

なので、GroqChip側はそのままです。つまり、まずはSystem全体の改善を先に行う選択をしたということです。

それができたら、V2 2nd Gen System で GroqChip1 => GroqChip2 で性能を上げ、V2 3rd Gen System で 規模を拡大するというステップになっています。

GroqCloud とは?:LLM推論とデータセンター戦略

はじめに

超絶LLM推論が速い、Groq。

昨年の12月にRackの出荷、輸送、設置の模様

vengineer.hatenablog.com

2月にはサウジアラビアへの投資

vengineer.hatenablog.com

ということで、ブログに残しました。

一番新しい Data Center 内の写真が下記です。

下記は、Groq KSA (サウジアラビア)の team のようです。

追記)、2025.07.18

NotebookLMの音声概要

GroqCloud

GroqCloud は、昨年(2024年)の3月に買収したDefinitive Intelligenceをベースに設立したようです。

thebridge.jp

サイトは、

です。

アクセスしてみると、"Join 1.8M+ developers building on GroqCloud" とあります。

下の方にサポートしているモデルが載っています。オープンソースなモデル(Qwen、DeepSeek、Llama、Gemma) をサポートしているようです。

お値段

お値段ですが、ここにありました。安いかどうかは、よくわかりません。

Data Center

Groq が設置しているData Centerは、XのGrok 3に聞いてみたら、

  • 米国とカナダ:Groqは北米を中心にデータセンターを展開しています。これらのデータセンターは、LPUを搭載したサーバー(GroqNodeやGroqRack)で構成され、AI推論処理をサポートしています。
  • サウジアラビアサウジアラビアのダンマームにデータセンターを展開しており、サウジアラビアソブリンウェルスファンドが支援するAI企業Humainがこのデータセンターを利用しています。Groqは、この地域でのデータセンターの拡張を計画しています。
  • 欧州:2025年7月に、Groqは欧州初のデータセンターを開設したと発表しました。このデータセンターは、NVIDIAGPUに依存せず、HBM(高帯域幅メモリ)などの高価なコンポーネントを必要としないLPUを活用することで、コスト効率と高速性を両立しています。
  • 日本(計画中):Groqは日本でのデータセンター建設を検討しており、データセンター事業者や電力会社と交渉中です。日本は、自動車やロボット産業、金融業界など、Groqの技術が適用可能な市場として有望視されています。

とありました。

Data Center関連については、買収したDefinitive IntelligenceのCo-Founderである「Sunny Madra」-san がXで投稿しています。

vengineer.hatenablog.com

にあるXの投稿はすべて、Sunny Madra -san のものです。

他のサービスとの比較

下記のXの投稿では、GroqCloudと他のサービスの比較のグラフが載っています。説明のために図を引用します。

最初の図では、

に次ぐ5位です。

2番目の図でも5位です。2024年はAmazonの次の6位でした。

おわりに

XのGrok 3によると、

Groqの資金調達履歴

  • 2017年8月: 1030万ドル(シリーズA)
  • 2019年9月: 5230万ドル(シリーズB)
  • 2021年4月: 3億ドル(シリーズC)
  • 2024年8月: 6億4000万ドル(シリーズD、評価額28億ドル)
  • 2025年7月(計画): 3億~5億ドル(検討中、評価額60億ドルを想定)

総額: 約10億5230万ドル(2025年7月の計画資金を除く)

評価額: 2024年8月時点で28億ドル、2025年7月時点で60億ドル(計画)

総額は、SambaNovaに次ぎ2位ですが、上記にあるように、2025年7月に追加資金調達があるようなので、トップになるのでしょうか?

売り上げは、2024年で 9000万ドル => 2025年では、5億ドルを目指す計画のようです。

Arrow Lake Refresh は、NPUを3から4に変わって、AI PC を名乗るの?

はじめに

Arrow Lakeは、下記のブログにも書いたように、NPU 3 を搭載しています。

vengineer.hatenablog.com

性能は、13 TOPS です。

Microsoft の AI PC を名乗れるのは、45 TOPS以上でないといけないので、Arrow Lake は AI PC ではありません。

NotebookLMの音声概要

- Arrow Lake Refresh: AI PCへの道

Arrow Lake Refresh

Arrow Lake Refresh は、Arrow Lake に対して、NPU を 3 から 4 にして、48 TOPS に性能を上げるようです。

gazlog.jp

NPU 4 は、Lunar Lake に搭載されています。

vengineer.hatenablog.com

といことで、

Arrow Lake Refresh = Arrow Lake (- NPU 3) + (Lunar Lake の NPU 4)

になって、やっと、AI PC を名乗れるんでしょうね。

Arrow Lake は、Meteor Lake と同じ SoC Die を使っていて、この中に、NPU が入っているので、SoC Die を作り直しているって感じですかね。

Lunar LakeのNPUは、下記のブログにも残しましたが、Compute Die にあるので、どんな感じに入れるんでしょうかね。

vengineer.hatenablog.com

おわりに

AI PC って、本当に必要なんでしょうかね。

Gemini や Grok を使っているので、ローカルなNPUで頑張るというのは今後あり得るのでしょうかね。。。どうなんでしょうかね。

SambaNova Systems の資金調達と評価額について

はじめに

AIアクセラレータを開発しているStartupの上位5社(Graphcoreを含む)の資金調達額の順位は、ChatGPTが出た 2022年11月の時点では、

  • SambaNova
  • Cerebras
  • Graphcore
  • Groq
  • Tenstorrent

でした。

昨年(2024年)の8月に Groq が資金調達をしたことにより、SambaNova Systems を超える資金を調達したことをブログに残しました。

vengineer.hatenablog.com

現在は、

  • Groq
  • SambaNova
  • Tenstorrent
  • Cerebras
  • (Graphcore), Softbank Groupが買収

です。

Cerebras は、IPOの準備をしています。現時点では承認がされたようなので、IPOされますかね。

vengineer.hatenablog.com

Graphcore は、Softbank Group に買収されました。

vengineer.hatenablog.com

今回は、2021年以降資金調達していない

  • SambaNova Systems

について、ちょっと調べてみました。

SambaNova Systems の資金調達と評価額について、

Grok 3 さんに以下の内容について、聞いてみました。

Groq, SambaNova Systems, Cerebras Systems, Graphcorw, Tenatorrentの資金調達を時期と金額および総額をまとめて

この中で、SambaNova Systemsのところで気になる内容がありました。

  • SambaNova Systems設立年: 2017年
    • 資金調達履歴:2019年4月: 1億5000万ドル(シリーズB)
      • 2021年4月: 6億7600万ドル(シリーズD)
      • 総額: 約11億2600万ドル
    • 評価額: 2021年4月時点で50億ドル、2025年2月時点で21億3000万ドル(シリーズD-1で57.48%下落)

2025年2月時点で21億3000万ドル(シリーズD-1で57.48%下落)

とあります。これについて、深堀しました。

もうちょっと調べてみて

  • SambaNova Systems設立年: 2017年
    • 資金調達履歴:2018年2月: 5600万ドル(シリーズA)

      • 2019年4月: 1億5000万ドル(シリーズB)
      • 2020年2月: 2億5000万ドル(シリーズC)
      • 2021年4月: 6億7600万ドル(シリーズD、評価額50億ドル)
      • 総額: 約11億2600万ドル
    • 評価額: 2021年4月時点で50億ドル、2025年2月時点で21億3000万ドル(シリーズD-1で57.48%下落)

    • 備考: SambaNovaはAIトレーニングと推論の両方に対応するDataScaleシステムを提供。SN40Lチップは大規模言語モデルの処理に特化し、企業向けフルスタックソリューションを展開。2022年にアルゴンヌ国立研究所にシステム納入

この時点では、評価額減についての詳細はありません。

具体的に聞いていきます。

SambaNovaの評価が減額された情報を詳しく

1. 評価額減少の概要

  • 2021年4月(シリーズD): SambaNovaは6億7600万ドルの資金調達を行い、評価額50億ドルを達成しました。このラウンドはSoftBank Vision Fundが主導し、Intel Capital、Google Ventures、BlackRockなどが参加。AIハードウェアとソフトウェアの統合ソリューションに対する高い期待が反映されていました。
  • 2025年2月(シリーズD-1): 評価額が21億3000万ドルに下落。これはシリーズD以降の市場環境や企業パフォーマンスの変化によるものです。具体的には、2023年6月のセカンダリーマーケットでの取引や市場動向が影響したと推測されます。

2. 評価額減少の主な理由

以下の要因が、SambaNovaの評価額下落に寄与したと考えられます。

(1) 市場環境の変化とAIチップ業界の競争激化

  • 競争の激化: AIチップ市場は、NVIDIA(H100 GPUとCUDAエコシステムで市場シェア約85%)が支配的で、AMD(MI300シリーズ)、Intel(Gaudi2)、Google(TPU)、Amazon(Trainium/Inferentia)などの大手や、Cerebras、Groq、Graphcoreなどの新興企業との競争が激化しています。SambaNovaの独自のReconfigurable Dataflow Unit(RDU)やSN40Lチップは効率性で優位性を持つものの、NVIDIAのエコシステムやクラウドプロバイダーの自社チップに対する依存度の高さが、市場での差別化を難しくしています。
  • 市場のシフト: AIワークロードがトレーニングから推論(inference)にシフトする中、SambaNovaは2023年に推論とクラウドサービスにフォーカスを変更(後述のレイオフ参照)。しかし、推論市場でもGroqやCerebrasが同様の戦略を採用し、特にGroqの低遅延推論チップが注目を集め、SambaNovaの市場シェア獲得が難しくなった可能性があります。

(2) 2023年のレイオフと戦略転換

  • レイオフの実施: 2025年4月26日、SambaNovaは従業員約500人のうち77人(約15%)をレイオフしました。このレイオフは、モデルトレーニングから推論、ファインチューニング、クラウドサービスへの戦略転換に伴うもので、市場環境の変化に対応するためのリソース再配置が目的でした。EE Timesによると、この戦略変更は「データセンターAI推論チップ市場の巨大な可能性」を狙ったものですが、短期的にはコスト削減と焦点の絞り込みが必要だったことを示唆しています。
  • 影響: レイオフは投資家の信頼感を損なう可能性があり、企業が予想ほどの成長を達成できていないとの見方を強めたかもしれません。特に、推論市場へのピボットがまだ収益に十分結びついていない場合、評価額にネガティブな影響を与えた可能性があります。

(3) 技術的課題と技術的負債

  • 技術的負債: Glassdoorの従業員レビューによると、SambaNovaは新機能の迅速な提供を優先するあまり、技術的負債(tech debt)が蓄積していると指摘されています。コード品質の問題や急ぎの開発が原因で、長期的なシステムの安定性やスケーラビリティに課題が生じている可能性があります。このような内部課題は、投資家が成長の持続可能性に疑問を持つ要因となります。
  • ワークライフバランスの悪化: レビューでは、過度な納期圧力による長時間労働や週末労働が報告されており、従業員の離職や生産性の低下につながる可能性があります。これが組織の効率性や技術開発の速度に影響を与え、評価額に間接的に影響したと考えられます。

(4) 資金調達とセカンダリーマーケットの影響

  • セカンダリーマーケットの動向: 2023年6月30日のセカンダリーマーケットでの取引が、評価額下落の一因とされています。セカンダリーマーケットでは、既存株主が株式を売却する際、市場の需要と供給に基づいて価格が決定されるため、投資家の需要が低下した場合、評価額が下落します。
  • 資金調達の停滞: SambaNovaの最新の大型資金調達は2021年4月のシリーズD(6億7600万ドル)で、その後の新規ラウンドが報告されていません。市場の不確実性やAIスタートアップへの投資熱の冷却が、新たな資金調達の難易度を高め、評価額の維持を困難にした可能性があります。

(5) 収益と成長期待のギャップ

  • 収益の不透明性: SambaNovaの収益は公開されておらず、PitchBookやCrunchbaseでも具体的な数値は記載されていません。2021年の50億ドル評価は、AI市場の成長期待に基づくものでしたが、実際の収益成長が投資家の期待に追いついていない可能性があります。
  • 顧客基盤の限界: SambaNovaはアルゴンヌ国立研究所やローレンス・リバモア国立研究所などの研究機関を顧客として公表していますが、商業分野での大規模な顧客採用の事例が限定的です。企業向けAIソリューションの展開が期待ほどのペースで進んでいない場合、投資家の評価が慎重になる要因となります。

3. 評価額下落の規模と影響

  • 下落率: 50億ドル(2021年)から21億3000万ドル(2025年)への57.48%の下落は、AIハードウェアスタートアップとしては大きな調整です。これは、市場の期待が過熱していた2021年と比較して、投資家がより現実的な評価を行うようになったことを示しています。
  • 比較: 他のAIチップスタートアップ(例:Cerebrasは評価額85億8000万ドル、Groqは28億ドル、Tenstorrentは26億ドル)では、SambaNovaの評価額は相対的に低く、競争力の低下を反映している可能性があります。一方で、Graphcoreは2024年にSoftBankに6億ドルで買収され、評価額が大幅に下落した例もあり、業界全体の再評価傾向が見られます。

4. SambaNovaの対応と今後の展望

  • 戦略的ピボット: SambaNovaは2023年にSamba-1-Turboをリリースし、SN40Lチップを活用して推論速度(1000トークン/秒)を強調。クラウドベースのDataflow-as-a-ServiceやSambaverseを展開し、企業向けのターンキーソリューション(90日で導入可能)を強化しています。これにより、NVIDIAGPUに依存しない低消費電力のソリューションを提供し、競争力を高めようとしています。
  • パートナーシップ: MetaのLlama 4シリーズやDeepSeek-R1(6710億パラメータ)のサポート、SoftBankの日本データセンターへのSambaNovaラック導入など、戦略的パートナーシップを通じて市場拡大を目指しています。
  • 課題: 評価額の回復には、商業顧客の拡大、収益の明確な成長、技術的負債の解消が不可欠です。NVIDIAの市場支配やクラウドプロバイダーの自社チップ開発が続く中、SambaNovaは独自のデータフローアーキテクチャフルスタックソリューションで差別化を図る必要があります。

5. 結論

SambaNovaの評価額が50億ドルから21億3000万ドルに下落した主な理由は、以下の通りです:

  1. 競争激化: NVIDIAや他のスタートアップとの競争で市場シェア獲得が困難。
  2. 戦略転換とレイオフ: 推論とクラウドサービスへのピボットに伴うレイオフが投資家信頼に影響。
  3. 技術的負債と組織課題: 技術的負債の蓄積とワークライフバランスの問題が成長の足かせ。
  4. セカンダリーマーケットの影響: 2023年の取引で評価額が調整された。
  5. 収益成長の不透明性: 商業顧客の採用が期待に追いついていない可能性。

SambaNovaは、SN40LチップやSamba-1-Turboによる技術革新と、クラウドサービスの強化で巻き返しを図っていますが、市場の競争環境や内部課題を克服する必要があります。評価額の回復には、収益の可視化と顧客基盤の拡大が鍵となります。


補足

  • 情報源の限界: 一部の情報(特に収益や顧客詳細)は非公開であり、推測に基づいています。評価額21億3000万ドルの具体的な根拠は、セカンダリーマーケットの取引データやPitchBookの推定に基づくものです。
  • 追加調査の可能性: 特定の投資家(例:SoftBank、BlackRock)の動向や、SambaNovaの最新顧客事例についてさらに深掘りが必要な場合、お知らせください。

何か特定の点についてさらに詳しく知りたい場合や、関連する他の企業の比較が必要な場合、ぜひご指示ください!

投資家について、

SambaNova Systemsの特定の投資家(例:SoftBank、BlackRock)の動向や、SambaNovaの最新顧客事例についてさらに深掘りをして

SambaNova Systemsの投資家動向と顧客事例

1. 特定の投資家の動向

(1) SoftBank Vision Fund 2

  • 投資履歴:
    • 2021年4月(シリーズD):
      • 投資額: 6億7600万ドルのリード投資家。推定2億~3億3800万ドル(総額の30~50%)を投資(、、)。
      • 評価額: 50億ドル。
      • 目的: SambaNovaのAIハードウェア(RDU)とソフトウェア(DataScale)のスケールアップを支援。AI推論市場でのNVIDIAへの挑戦を強化(、)。
    • 総投資額: 推定2億~3億3800万ドル(他のラウンドへの参加は未確認)。
  • 動向:
    • 戦略的パートナーシップ:
      • 2023年12月: SoftBank Corp.がSambaNovaのDataScaleを生成AIプラットフォームに採用。日本のAIデータセンターに展開し、生成AI開発を加速()。
      • 2025年3月: SambaNova Cloudの日本展開を拡大。SoftBankのデータセンターにSN40Lチップ搭載ラックを追加し、Swallow(東京科学大学)、Llama、Qwenモデルを提供(、)。
      • Hironobu Tamba(SoftBank副社長)は、SambaNovaとの連携強化を表明し、APACでの生成AIイノベーションを推進(、)。
    • 投資動機:
      • SoftBankはAIインフラをビジョン2030の中核と位置付け、SambaNovaの低消費電力・高効率推論(DeepSeek-R1 671Bで231トークン/秒、GPU比3倍速、5倍効率)を評価(、)。
      • Deep Nishar(SoftBank Investment Advisers)は、SambaNovaのフルスタックAIソリューション(ハード・ソフト統合)が単一コンポーネントソリューションの複雑さを軽減するとコメント()。
    • 評価損:
      • 2025年2月、SambaNovaの評価額が50億ドルから21億3000万ドルに57.48%下落(前回答)。SoftBankの推定評価損は1億1500万~1億9400万ドル(株式10%保有仮定で2億8700万ドル減)。
      • SoftBank Vision Fund 2は2023年3月期で210億ドルの累積損失を計上したが、2024年9月期で7億7600万ドルの利益回復(前回答)。SambaNovaの損失は全体の一部にすぎない。
  • 今後の展望:
    • SoftBankは日本でのSambaNova Cloud展開を拡大し、2025年内に追加のオープンソースモデル(アジア言語対応)を導入予定()。
    • Vision FundのAI投資戦略は慎重化(2022~2023年投資額90%減、前回答)だが、SambaNovaへの継続的な技術提携は評価額回復の可能性を示唆。

(2) BlackRock

  • 投資履歴:
    • 2020年2月(シリーズC):
      • 投資額: 2億5000万ドルの一部(具体額非公開、)。
      • 評価額: 非公開(シリーズD前の推定10億~20億ドル)。
    • 2021年4月(シリーズD):
      • 投資額: 6億7600万ドルの一部(推定5000万~1億ドル、、)。
      • 評価額: 50億ドル。
    • 総投資額: 推定5000万~1億5000万ドル(シリーズCとDの合計、正確な割合非公開)。
  • 動向:
    • 投資戦略:
      • BlackRockはAIインフラとテック成長企業に注力。SambaNovaのDataflow-as-a-Service(月額1万ドル~)と企業向けAIプラットフォームを評価(、)。
      • 2025年7月のBlackRock投資展望では、AI革命を長期的な成長機会と位置付け、SambaNovaのようなAIハードウェア企業を支援()。
    • 顧客支援:
      • BlackRockはSambaNovaの顧客基盤拡大を間接的に支援。SambaNovaのAWS Marketplaceでの提供(2025年、)は、BlackRockのネットワークを通じたクラウド企業との連携を反映。
    • 評価損:
      • 2025年2月の評価額下落(50億ドル→21億3000万ドル)で、BlackRockの推定評価損は2500万~7500万ドル(株式5%保有仮定)。BlackRockの総資産(10兆ドル超)に対し影響は軽微。
    • 今後の展望:
      • BlackRockはSambaNovaのIPO可能性に注目。2025年3月のFast Companyのイノベーションランキング4位()や、AWS Marketplace展開が評価回復の契機となる可能性。
      • 2025年内にSambaNovaが新たな資金調達やIPOを計画する場合、BlackRockが追加投資する可能性(未確認、)。

2. 最新顧客事例

SambaNovaの顧客事例は、企業向けAIソリューション(SambaNova Suite、DataScale、SambaNova Cloud)の迅速な展開(90日)と高効率推論(231トークン/秒、GPU比3倍)を背景に拡大しています。以下は2025年時点の最新事例:

(1) SoftBank Corp.(日本)

  • 契約: 2023年12月、DataScaleをSoftBankの生成AIプラットフォームに採用()。2025年3月、SambaNova Cloudを日本データセンターに展開(、)。
  • 詳細:
    • SN40Lチップ搭載ラックを追加し、Swallow(東京科学大学)、Llama 3.1、Qwenモデルを提供。
    • 日本の開発者に低レイテンシ推論(DeepSeek-R1 671Bで231トークン/秒)を提供。
    • Cotofure Corporationが導入を支援()。
  • 意義: APACでの生成AI市場拡大。SoftBankのビジョン「情報革命」に合致()。

(2) STC(サウジアラビア

  • 契約: 2025年、SambaNovaとSTCが提携し、中東でのAIインフラを強化()。
  • 詳細:
    • SambaNova Cloudを活用し、企業向け生成AIソリューションを提供。
    • ヘルスケアやエネルギー分野でのデータ解析を支援。
  • 意義: サウジアラビアのビジョン2030に沿ったAI投資。G42(Cerebrasのパートナー)との競争を反映。

(3) Hugging Face

  • 契約: 2025年3月、Hugging FaceでSambaNovaのデモ公開。Llama 3.1 Instructモデルを活用し、OpenAIのo1モデルに対抗()。
  • 詳細:
    • 単一ラック(16チップ)でDeepSeek-R1 671Bを3倍速、5倍効率で提供。
    • オープンソースモデルの高速推論で、開発者コミュニティを支援。
  • 意義: オープンソースAIの普及を加速。SambaNovaの技術的優位性をアピール。

(4) CrewAI

  • 契約: 2025年3月、CrewAIと共同で「Deep Research Framework」をオープンソース化()。
  • 詳細:
    • 低コスト・高速なAI研究エージェントを提供。
    • 企業や研究機関向けに、データ解析やインサイト生成を効率化。
  • 意義: オープンソース戦略で顧客基盤を拡大。NVIDIA依存からの脱却を支援。

(5) アルゴンヌ国立研究所(米国)

  • 契約: 2022年以前から継続。DataScaleシステムを研究用途に提供(前回答)。
  • 詳細:
  • 意義: 米国政府機関との契約で信頼性を強化。商業採用拡大の基盤。

(6) その他の顧客

  • 企業: 金融(非公開)、ヘルスケア(非公開)、自動運転分野(例:Waymoとの提携推測、)。
  • 事例: SambaNova Suiteを90日で導入し、Llama 3 8B/70B/405Bモデルをサポート。企業向けカスタマイズで運用効率を向上(、)。
  • 課題: 具体的な顧客名や収益貢献の公開が限定的()。

3. 投資家と顧客の関連性

  • SoftBank:
    • 日本でのSambaNova Cloud展開(、)は、SoftBank自身の顧客基盤(通信、エンタープライズ)を活用。投資と顧客関係が連動。
    • STCやHugging Faceとの提携は、SoftBankのグローバルネットワーク(中東、アジア)を反映。
  • BlackRock:
    • AWS Marketplaceでの提供()は、BlackRockのクラウド企業とのネットワークを活用した可能性。
    • ヘルスケアや金融顧客の獲得に、BlackRockの投資家ネットワークが間接的に寄与。

4. 今後の展望

  • 投資家動向:
    • SoftBank: 日本やAPACでのAIデータセンター拡大を継続。2025年内に追加モデル(アジア言語)のサポートで投資価値を高める()。
    • BlackRock: IPO準備(未発表、)や評価額回復(21億3000万ドルから上昇)に注力。2025年のAI市場成長(927億ドル予測、過去会話2025/5/29)で追加投資の可能性。
  • 顧客拡大:
    • AWS MarketplaceやHugging Faceを通じたオープンソース戦略で、開発者や中小企業を新規顧客として獲得(、)。
    • STCやSoftBankとの地域展開で、中東やアジアでのシェア拡大を目指す。
  • 課題:
    • 評価額回復には、NVIDIA(市場シェア85%)との競争や顧客多様化が必要()。
    • 技術的負債やレイオフ(2023年77人、前回答)の影響を解消し、収益の透明性を高める必要。

補足

  • 情報源: Web検索結果(~)、PitchBook、Crunchbase、Business Wire、Reuters。
  • 限界: 投資額の具体的な割合や最新顧客の収益貢献は非公開。セカンダリーマーケットの評価額(21億3000万ドル)は2023年6月時点で、2025年の変動は未確認。
  • 追加調査: SoftBankの他のAI投資(例:Graphcore)、BlackRockのAIポートフォリオ、またはSambaNovaの特定顧客(金融、ヘルスケア)の詳細が必要な場合、ご指示ください。

何か特定の投資家や顧客事例についてさらに深掘りが必要な場合、ぜひお知らせください!

おわりに

セカンダリーマーケットというのがあるんですね。

先日のブログ

vengineer.hatenablog.com

にて、ブランドを変えてきましたが、これによって大幅に売上が上がるものでしょうか。。。。

AMD MI300X と MI350Xの比較

はじめに

AMD MI300X x 8 chip は、64ノードモードで動くということは、このブログでも取り上げました。

vengineer.hatenablog.com

今回は、MI350X について、取り上げます。

NotebookLMの音声概要

MI350X

下記のXの投稿では、MI350X x 8 chip の rocm-smi のログが載っています。

MI300XとMI350Xを比較します。GPUが動いていない状態で。

  • M300X

    • 38 - 43 ℃、138 - 140 W、SCLK=134MHz、MCLK=900MHz、PwrCap=750.0W
  • MI350X

    • 64 - 68 ℃、246 - 262 W、SCLK=144MHz、MCLK=2000MHz、PwrCap=1000.0W

MCLKを 900MHz => 2000MHz になっていますね。これだけで、消費電力は倍ぐらいになっちゃいますね。

おわりに

AMDのMI300X/MI350X、電源を入れて、何もしないだけでも、なんか凄い消費電力になっていますね。

昔、エコ、省エネ、SDGsあったようですが、あれは、どこにいっちゃったのでしょうか?

おわりに