Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

Cloud Deep Learning Chipsのおまとめスライド

@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそすべては、SystemC v0.9公開から始まった 

今年最後のブログは、

「Cloud Deep Learning Chips : Training & Inference」

のおまとめスライドにしました。以下のようなチップについて、簡単にまとめました。

Slideshareにて公開しています

Training

  • Google:TPU v2/v3 (HBM2)
  • Intel Nervana:NNP-T (HBM2)
  • Habana Labs:Gaudi (HBM2) <= Intel が買収
  • Alphaics:RAP (HBM2 option) <= EdgeのInference用の模様(AlphaEdge)
  • Huawei:Ascend 910 (HBM2)
  • Baidu:Kunlun (HBM2)
  • Graphcore:GC2 (SRAM)
  • Cerebras:CS-1 (SRAM)

Inference

だけあるんですよね。

でも、推論用チップで外販しているのは、Intel NNP-I、GoyaとGroqだけ。。

Groqは学習よりも推論だろ、って言っているんですがね。。。どうなんでしょうか?

 

2年前の2017年9月30日(土)のChainer Meetup #6での発表資料 このスライド には、Intel Nervana、Graphcore、Wave Computing、Groq、Alphaicsについて書いています。

Wave Computingはチップを2017年のhotchipsで発表しているがその後、IP屋さんになっちゃったみたい。この時は、16nmで実装して、メモリはなんと、HMC(Hybrid Memory Cube)。講演資料は、こちら

news.mynavi.jp

 Alphaicsは、Edge 用推論チップのようなので、2019年で打ち止めかな。

2019年は淘汰の年かな。

Alphaicsがどんな感じになるかはまだ分からないですが、来年2020年は勝負の年になりそう