Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

IntelのQ4.2024のAlteraとMobileyeの決算、損失?

はじめに

IntelのQ4.2024の決算がでました。

Q4.2024

主要領域は、全体的に up ですが、Altera と Mobileye の売上半減です。

Altera

今期から Altera 単独としての決算。2023.10にPSGの分離、2024.3からAlteraに。下記を見ると、Q3.2023から売り上げが減ってきて、Q4.2023で利益がほとんどなし、今期(Q1.2024)では、$39Mの損失

これどうなっているんでしょうかな。PSGの中でNetwork Cardとかで売ったものを含んでいるとかで売り上げが大きく見えていて、内部取引で後から引いていたのでしょうか?

なんか変です。

Mobileye

Mobileye は前期から一変で売上半減、損失に!

株価を見たら、1月4日に急落、この時はまだ決算出ていない気が。

Q4.2023の決算が1月25日

ir.mobileye.com

こちらもなんかおかしい。

おわりに

Intel、そうとう苦しんでいますね。

AI PC、売れるのでしょうかね。。。

AI Cloud Chipの5社 (NVIDIA, AMD, Intel Habana, Google, AWS)

はじめに

Al Cloud Chip をまとめてみます。

の5社を取り上げます。 何故?Startupを取り上げないのかは、TSMC N7/N6 => N5/N4 => N3 に移行しているものの、 この記事を書いた時は、Startup は N7 までだからです。SambaNova SystemsとCerebras SystemsはN5のプロダクトを出してきましたが。

さっくとまとめると、

  • NVIDIA : A100-80GB (N7) => H100-80GB, GH200-96GB, GH200-141GB, H200-141GB (N4) => B100/B200-192GB (N4P)
  • AMD : MI250X-128GB (N6) => MI300X-192GB (N5/N6) => MII350-288GB (N4) => MI400-??GB (N?)
  • Intel Habana : Gaudi 2-96GB (N7) => Gaudi 3-128GB (N5)

  • Google : TPU v4-32GB/v4i-8GB (N7), v5p-32GB.v5e-16GB (N5)

  • AWS : Inferentia-8GB (N?)/Inferentia2-32GB, Trainium-32GB / Trainium 2-??GB, Inferentia3 (N?)

NVIDIA, AMD, Intel Habana は、メモリをたくさん積む方向へ進んでいます。一方、Google TPU と AWS Inferentia/Trainium はメモリ少なめです。

何故?そうなるのかはわかりませんが、どうなんでしょうか?

おわりに

Meta の MTIA, Microsoft の Maia 100 もありますが、まだ、第一段なのでここでは取り上げませんでした。。。

今年は、

がかなりの量、出てくると思います。

下記のXの投稿によると、TSMCの5nmおよび3nmプロセスを使用して100万から150万になるようです。なんか凄いですね。

結局、一番うれしいのは、TSMC なんですかね。IRの月度売上を見ると、2023年は 2022年よりはマイナスなんですね。

Q4.2023 の決算プレゼンテーション資料を見ると、N5 は増えていますが、N7 は 2022年に比べると、減っているんですね。

NVIDIA DGX H200、予定通り、Q2.2024 に出荷される

はじめに

NVIDIA DGX H200 が予定通り出荷されたようです。

最初のDGX H200 は、(記録のために下記のXの投稿を引用します)

です。

Big User である、Meta, Microsoft, Google, ではなく、OpenAI のようです。。。。時代を感じますね。

予定を確認

下記のブログにも書きましたが、Q2.2024 です。

vengineer.hatenablog.com

おわりに

NVIDIAの今年の売上は、DGX H200 がメインだと思います。

AMD XDNA2 で性能向上!

はじめに

AMD Ryzen 7040シリーズで、Xilinxの AI Engine を AMD XDNA として NPUとしてリリースしています。

vengineer.hatenablog.com

その後、Ryzen 8040シリーズにて、NPUの性能をちょこっと上げています。

vengineer.hatenablog.com

AMD XDNA 2

AMD のサイトで、XDNA 2 にアクセスすると、下記のYoutubeに飛びます。

www.youtube.com

XDNAに比べて、性能が大幅に向上されるということのようです。

Strix Point

Strix Point が今年でる Ryzen 8050 シリーズに繋がるということなんでしょうか?下記の記事に詳細があります。

wccftech.com

上記の記事から 8050 の情報を説明のために引用します。

  • AMD Ryzen 8050 Strix Point Mono Expected Features:

    • Zen 5 (4nm) Monolithic Design
    • Up To 12 Cores In Hybrid Config (Zen 5 + Zen 5C)
    • 32 MB of Shared L3 cache
    • 16 RDNA 3+ Compute Units
    • 128-bit LPDDR5X Memory Controller
    • XDNA 2 Engine Integrated
    • ~25 TOPS AI Engine
    • 2H 2024 Launch (Expected)
  • AMD Ryzen 8050 Strix Point Halo Expected Features:

    • Zen 5 Chiplet Design
    • Up To 16 Cores
    • 64 MB of Shared L3 cache
    • 40 RDNA 3+ Compute Units
    • 256-bit LPDDR5X Memory Controler
    • XDNA 2 Engine Integrated
    • ~50 TOPS AI Engine
    • 2H 2024 Launch (Expected)

XDNA 2 になり、25 TOPS/50 TOPS になるようです。

Ryzen 7040 の NPU が 10 TOPS, Ryzen 8040 の NPU が 16 TOPS です。

AMD Ryzen 8050 Strix Point Monoは 25 TOPS ですが、AMD Ryzen 8050 Strix Point Halo は 50 TOPS です。こちらは、かなり性能向上していますね。

おわりに

で、なんだか、Mono と Halo って、Chiplet なのかな? L3 Cacheが 32MB vs 64MB, メモリのビット幅が 128bit vs 256bit, XDNA 2 が 25 TOPS vs 50 TOPS なので2倍なんですよね。

Gaming GPUとサーバー用CPU/GPU では、chiplet を導入しているので、Client PC も chiplet を導入しても全然おかしくはないですが。。。

www.guru3d.com

の中に下記のような記述がありました。説明のために引用します。

Model    Target  Type    Ryzen Series    CPU Cores   GPU Cores   Default TDP
Hawk Point  Mainstream APU  Monolithic  Ryzen 8040  8x Zen4 12CU RDNA3  ~28-54W
Strix Point Premium APU Monolithic  Ryzen 8050  12C (4x Zen5 + 8x Zen5c)    16CU RDNA3.5    ~28-54W
Fire Range  High-end APU    Multi Chiplet   Ryzen 8055  16x Zen5    TBC ~55-75W
Strix Halo/Sarlak   Ultimate APU    Multi Chiplet   TBC 16x Zen5    40CU RDNA3.5    ~55-120W
Granite Ridge   Desktop CPU Multi Chiplet   Ryzen 8000  16x Zen5    TBC ~65-170W

Strix Haloは、Multi Chiplet になっていますね。Strix Pointは Monolithic ですね。Strix Halo は、8コアな Zen5 な APU die を対向で2個接続しているんでしょうかね。

Fire Range, Granite Ridge との違いはなんなのでしょうかね。

書籍 : ビリー・マサーズ

はじめに

ひとり読書会、スティーブン・キングの新作

  • ビリー・サマーズ

を読み終えました

前回の「リーシーの物語」は、3月29日なので、1か月無かったですね。

vengineer.hatenablog.com

その間に1冊、読んでいますが。

ビリー・サマーズ

書いたのが、2019年6月12日 ~ 2020年7月3日

パンデミックが始まる前。中でも、これからパンデミックが起こるのに、と書いてある。

ビリー・サマーズは、ホラー作品でもないです。ちょっとだけサスペンスですが、なかなか悩ましい内容でした。

おわりに

在庫は、

  • 電流心霊

のみです。

ビリー・サマーズの下巻の解説に

  • 初夏 : Later
  • 秋 : 幻の中編「コロラド・キッド」「ライディング・ザ・ブレッド」「Elevation」を加えた日本オリジナル中編集
  • Fairy Tale

が出るようです。真ん中の「コロラド・キッド」は非売品なので、読めないかな?と思っていたので、超嬉しいです。

Tenstorrent の Blackhole の性能は、1000 8b TOPS、NVIDIA H100 (2000 TOPS)の半分の性能!

はじめに

Tenstorrent の Blackhole の性能ですが、8bit であるものの 1000 TOPS 。NVIDIA H100 の FP8 が TensorCore で 2000 TOPS (dense) なので、半分の性能です。

vengineer.hatenablog.com

Blackhole の性能

上記のブログにも載せた Tenstorrent のスライドを説明のために引用します。

プロセスを考えると、Tenstorrent のものは 性能がいいですね。

ただし、メモリが GDDR6 なので、そこがボトルネックになる可能性があります。

おわりに

あまり気にしていませんでしたが、Tenstorrent 、8b ではあるものの 性能いいですね。

AIアクセラレータ、第3世代が勝負どころか?

はじめに

Intel Habana Gaudi 3の詳細が出てきたことはこのブログでも紹介しました。

GPUを含めたAIアクセラレータ。第3世代目が勝負どころでは?と思っています。

第3世代を見てみる

  • NVIDIA : P100 (16nm) => V100 (12nm) => A100 (7nm)
  • AMD : MI100 (7nm) => MI200/MI210/MI250 (7nm) => MI300X (5nm)
  • Intel Habana : Gaudi (16nm) => Gaudi 2 (7nm) => Gaudi 3 (5nm)

AI Cloud Chip Startup では、

  • Cerebras Systems : CS-1 (16nm) => CS-2 (7nm) => CS-3 (5nm)
  • SambaNova Systems : SN10 (7nm) => SN30 (7nm) => SN40L (5nm)

残念ながら、Graphcore は、第二世代までで終わりです。

  • Graphcore : IPU MK1 (16nm) => IPU MK2 (7nm) = BoW IPU (7nm) これは、IPU MK2 の電源を強化したものなので第二世代

この中で、NVIDIAだけ、7nm 。AIアクセラレータと考えると、TensorCoreを入れたV100を第一世代とすると、

  • NVIDIA : V100 (12nm) => A100 (7nm) => H100 (4nm)

となり、同じ感じなんでしょうかね。

想定外だった、SRAM

TSMCが 3nm では、5nm に対して、SRAMのサイズはあまり小さくならないよ、宣言によって、辛くなっている感じ。

となると、第4世代 (TSMC 3nm) では力業、つまり、いっぱい詰め込む、では無理そう。。ということで、5nm からは 2 die 以上で攻めている感じです。

  • AMD MI300X : die たくさん
  • Intel Habana Gaudi 3 : 2 die
  • SambaNova Systems : SN40L : 2 die

そして、NVIDIAも H100までは 1die でしたが、B100では 2 die

おわりに

5nm ベースの AI アクセラレータが出そろいました。性能的には、NVIDIA H100/H200 程度にはなっているようです。となると、あとはお値段ですね。H100 の $30,000 に対して、AMD MI300X は $15,000 という話も出ているようなので、性能はほぼ同じで AIアクセラレータは半分。とは言え、1ボードで済むことがないので、Node単位だけでなく、Cluster単位でのお値段に比較が必要ですね。

基本、$1M を考えないといけないので、あたしの世界観ではもうすでに、どこかに行ってしまいました。。。。さようなら。