Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

LeapFive NB2 : RISC-V Quad Core + GPU + NPU + ISP な SoC

はじめに

LeapFive NB2 という RISC-V のコアが4個入っているSoCが出るようです。

www.cnx-software.com

LeapFive NB2 (狮山:Shi Shan)

www.leapfive.com

サイトのCompanyから引用です。

  • 2020年に創業
  • Google の CTO だった、Dr. Jiang Zhaohui

サイトから下図を説明のために引用します。

が入っています。

ロードマップ

下図もサイトから説明のために引用します

NB Series は、Edge layer flagship AI SoC chip のようです。

  • NB2 (2022前半)
  • NB1 (2022後半)
  • NB3 (2023後半)

おわりに

LeapFive NB2 は、ちょっと前の ARM Cortex-A53x4 コアベースのSoCっぽいですね。

12nm っぽいので、TSMCですかね。

LeapFive Technology launched the first 12nm 64-bit RISC-V multi-core high-end application processor

Linuxが動くことになれば、Arm系のSoCの変わりに中国を中心に使われることになっていくでしょうね。

Intel Sapphire Rapids に HBMが付いている意味がわかった?

はじめに

Intel の Sapphire Rapids に、HBMが付いているものがあるのですが、なんで、かな?-とずーと思っていたのです。

news.livedoor.com

HBMが付いている意味が分かった

とあることで調べ物をしていたら、Xeon Phi Knight Lighting がそっくりな構成だったということが分かったのです。

下記の記事は、2016年6月の ISC(International Supercomputing Conference) 2016 で発表された「Xeon Phi Knight Lighting」についてです。

pc.watch.impress.co.jp

下図は上記の記事から説明のために引用します。Knights Landing は、DDR4 x 3 channel が2つで合計 6 channelの他に、MCDRAM が 8個で16GB接続しています。CPUコアに対応するものは、36 Ttiles

下図は、最初に引用した記事からです(説明のために引用します)。Sapphire Rapds は、DDR5 x 8 channel、HBM2e x 4 で 64GB接続しています。CPUコアは、最大 15 x 4 = 60 コア。下図には、HBMを

  • Flat Mode
  • Caching Mode

の2種類で使い分けできるようです。Caching Modeにすることで、64GBもの Cache になります。

Xeon Phi Knight Landing についても、同じような使い方ができるようです。下図は、INTRODUCTION TO THE ARCHER KNIGHTS LANDING CLUSTER から説明のために引用します。

  • Cache Mode
  • Flat Mode

と、Sapphire Rapids の HBM と同じですね。

もうちょっと、調べてみた

news.mynavi.jp の中の 図にある 2016年頃の Supercomputer は Intel Xeon/KNL になっています。

その図を説明のために引用します。

  • Argonne : Theta
  • CORI : LBNL
  • Trinity : LANL/SNL

は、Cray/Intel Xeon/KNL です。KNLは、Knight Landingの略称です。

そして、その後の更新 (記事は2019年なので、それ以降についてわかる範囲で追記してます)では、

  • Argonne (2021-2023) : A21 => Aurora (Intel Sapphire Rapids + Ponte Vecchiro)
  • LBNL (2021) : Perlmutter (AMD Milan + NVIDIA A100)
  • LANL/SNL (2023) : Crossroads (Cray : Intel Sapphire Rapids)

になっています。

Perlmutterは、AMD Milan + NVIDIA A100 の GPGPU ベースになりましたが、他の2つは Intel Sapphire Rapids を採用しています (ただし、Auroraはかなり遅れているようです)

Xeon Phi Knight Landings のノウハウが再利用できる?

となると、Xeon Phi Knight Landingsでの Cache mode / Flat mode でのノウハウの再利用できるのでは?

例えば、

おわりに

いやー、Intel Sapphire Rapids の HBM の秘密がわかって、すっきりしました。

Cloud用学習チップは、3nm に移行するか?

はじめに

2021年4月の時点でのCloud用学習チップベンチャーの資金調達は、下記の通り。

vengineer.hatenablog.com

2021.5に、Tenstorrentも増資したので、現在は、下記のような感じ。Groqを入れているのは学習チップを開発しているとあたしは予測しているため。

会社名            資金調達調達          
SambaNova       $1132M(2021.04)     
Graphcore       $710M (2020.12)     
Cerebras            $450M (2020.11)     
Groq            $367M (2021.04)         
Tenstorrent     $234M (2021.05)     

Intel Habana        $2B (Intel買収2019.12)    

7nm を超えると、Logic/SRAM の density はそれほど増えない

下記のツイートにて。GraphcoreのSimon -san のプレゼン資料を見るとわかりますが、7nm (2018)ぐらいまではプロセスが進むと、Logic/SRAM の density は、それなりに増えてきたが、2021年の5nm では SRAM はかなり寝てきて、2024年の 3nm では 5nm からほとんど増えていない。Logicも寝てきました。

各ベンダーのチップは?

下記のように、Tenstorrent 以外は、7nm までになっています。16nm => 7nm にて、倍入ったのでプロセス移行がうまくいきましたが、7nm => 3nm では倍は無理そう。。。そうなると、どうすればいいのか?って感じですかね。

会社名            チップ名 (プロセス)
SambaNova       SN10 (7nm) + DDR4、SN30(7nm)+ DDRX
Graphcore       MK1 (16nm)、MK2 (7nm) + IPU Gateway SoC、BoW IPU (MK2ベース)
Cerebras            CS-1 (16nm)、CS-2 (7nm)
Groq            GroqChip1 (GF 14nm)、GroqChip2 
Tenstorrent     Wormhole (GF 12nm) + GDDR6、Blackhole (6nm、DDR5 x 8、400GbE)、Grendel (4nm、DDRx x12)

Intel Habana        Gaudi (16nm) => Gaudi2 (7mn)

Tenstorrent は、倍々ゲームではなく、1.x 倍作戦なので、プロセスが進めばそれなりに入ることになっています。

Wormhole (GF 12nm) : 12 x10 (120) => Black Hole (TSMC 6nm) : 13 x 14 (184) => Grendel (TSMC 4nm) : 20 x 16 (320)

おわりに

TSMC 3nm は、希望のプロセスという感じじゃなさそうです。そうなると、各ベンダーどんな作戦を取るんでしょうかね?

ちなみに、日本の 「京」=> 「富岳」=> 「FugakuNext」は、

なので、半導体プロセスとしては、4世代、になっています。

Intel Habana Gaudi2/Greco のスライド?

はじめに

IntelがHabana2とGrecoを開発したことは、このブログでも紹介しました。

vengineer.hatenablog.com

Intel Tech Tour での情報公開

Intel Tech Tour にて、Gaudi2/Greco の情報を公開したようです。

下記のTweetから説明のために引用します。

Gaudi2 (Gaudi)

  • 7nm TSMC (16nm)
  • 96GB HBM2E (32GB HBM2)
  • 48MB SRAM (24MB)
  • on-chip 24x 100 Gbps RoCE v2 RDMA NICs (10x 100 Gbps)
  • 24x TPCs (256B SIMD) (8 TPCs))
  • 2x MME
  • 600W TDP

Greco / Goya

  • 7nm TSMC (16nm)
  • 16GB LPDDR5 (204GB/s) (16GB DDR4、40GB/s)
  • on-chip 128MB SRAM (50MB)
  • 75 W TDP

おわりに

下記のブログにも書きましたが、doron1 って、なんでしょうかね。

vengineer.hatenablog.com

Intel Codeplay に続き、ArrayFire を買収

はじめに

Intelは、oneAPI 強化のために、Codeplay Software を6月1日に買収しました

community.intel.com

そして、9月8日に ArrayFire も買収しました

www.intel.com

CodePlay Software

CodePlay Softwareは、OpenCL/SYCL 関連の会社。このブログでも何度か取り上げています。

vengineer.hatenablog.com

ArrayFire

ArrayFire は、GPUを速く実行するためのライブラリを提供している会社。

このブログでも何度か取り上げています。

vengineer.hatenablog.com

Intel が買収した会社

Intelが買収した会社は、いっぱいありますよね。2015年から

  • 2015 : Altera/Lantiq Semiconductor
  • 2016 : Mobileye/Ascending Technologies/Replay Technologies/Nervana Systems/McAfee をSpin-off
  • 2018 : NetSpeed Systems/eASIC
  • 2019 : Habana Labs/Barefoot Networks
  • 2020 : Rivet Networks
  • 2021 : VIAは以下のCentaurの人材
  • 2022 : Tower Semiconductor/CodePlay Software/ArrayFie

おわりに

このブログで取り上げた会社でその後、買収されたところをピックアップしてみました。結構多いです。

Apple A16

はじめに

9月8日に、Apple Event にて、A16の発表がありました。

  • iPhone 14 / 14 Plusは、A15
  • iPhone 14 Pro/ 14 Pro Max は、A16

搭載ということになりました

A16

A16 の発表は、かなりあっさりしていました。

N4

CPUの 2コア + 4コアの構成は、A11から変わらずです。ただし、アーキテクチャが変わっています。

  • A7 - A9 : Armv8.0A
  • A10 : Armv8.1A
  • A11 : Armv8.2A
  • A12 : Armv8.3A
  • A13 : Armv8.4A
  • A14/A15 : Armv8.5A

A16 は、A13に対して、大幅に速くなったようです。アーキテクチャは A14/A15 と同じ、Armv8.5Aのままか?それとも、Armv8.6A になるのか?

Armv8.6A になると、下記のような機能が追加されるようです。

  • GEMM
  • BF16
  • SIMD (BFDOT/BFMMLA/BFMLAL/BFCVT
  • ECV
  • FGT
  • AMU

追記)、2023.01.21 Wikipediaによると、Armv8.6 のようです

GPUは、A11 (2) 、A12 (4)、A13/A14 (4)、A15/A16 (5)

GPUは、バンド幅が倍になったということを言っていた気がします。

NPUは、A12 (2)、A12/A13 (8)、A14/A15/A16 (16)

消費電力とソフトウェアを考えると、コア数とか増やすのはそろそろ限界なのでしょうか?

おわりに

Apple Axx の発表。。。まー、そうなのね。ということになりました。

N3にて実装される、A17に期待しましょう!。

Zynq MPSoCで、コンピュータを学ぼう (まとめ)

はじめに

以下のように、6日間にわたって、「Zynq MPSoCで、コンピュータを学ぼう」を掲載しました。

RISC-V への応用

今更、Arm Cortex-A53 って、古いじゃん、今は、Cortex-X3だよ。いやいや、Armじゃなくて、RISC-Vじゃん。という感覚になると思いますが、 ベースとなる部分は、Cortex-X3になっても、CPUのISAが変わるRISC-Vになっても、Linux を使うので、U-BootやLinuxデバイスドライバについては基本的に同じです。

ちなみに、ARMのArm Trusted Firmwareに相当するのが OpenSBI のようです。その OpenSBI と Linux についても、薄い本を書きましたので、こちらも是非、覗いてみてください。

基本を学べば、後は応用です。ここまでに学んだのは、コンピュータの知識だけではありません。オープンソースソースコードの解析、半導体開発に必要なステップとはどういうものなのか?ということも学んでいるんですよ。

アメーバ型キャリアで、自分のできる領域を広げる

ここで学んだことをベースに自分ができる領域を少しづつ広げて(あたしは、これを「アメーバ型キャリア」と呼んでいます)いけば、自分のできることが増え、お仕事としての実績が上げることができます。

そうすると、収入も増え、お金の余裕が心の余裕になり、自分でやりたいことにも挑戦できる状況になると思います。

ただし、その時期は明日とか、1か月後とかそんな短いスパンでは実現できません。しかしながら、すこしづつ、自分のできる領域を広げることを継続することで、いつかは実現できると、思っています。

人生100年時代、お仕事は 45年間するんですよ

人生100年時代、大学院を出るのが25歳。定年が70歳になろうとしている現在では、45年間もお仕事をするわけですから、長い時間をかけて色々なことができると思います。

是非、みなさんも、コンピュータを学んで、お金の余裕から心の余裕を得て、人生をよりよくなるように、しませんか?

おわりに

アメーバ型キャリアについては、下記の2つのブログ

vengineer.hatenablog.com

vengineer.hatenablog.com

40年間エンジニアをやるためにの関連ブログもあります。

vengineer.hatenablog.com

vengineer.hatenablog.com