@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった
今年最後のブログは、
「Cloud Deep Learning Chips : Training & Inference」
のおまとめスライドにしました。以下のようなチップについて、簡単にまとめました。
Training
- Google:TPU v2/v3 (HBM2)
- Intel Nervana:NNP-T (HBM2)
- Habana Labs:Gaudi (HBM2) <= Intel が買収
- Alphaics:RAP (HBM2 option) <= EdgeのInference用の模様(AlphaEdge)
- Huawei:Ascend 910 (HBM2)
- Baidu:Kunlun (HBM2)
- Graphcore:GC2 (SRAM)
- Cerebras:CS-1 (SRAM)
Inference
- Google:TPU v1 (SRAM)
- Intel Nervana:NNP-I (DRAM)
- Habana Labs:Goya (DRAM) <= Intel が買収
- Groq (SRAM)
- Alibaba:Hanguang(含光) 800 (SRAM)
だけあるんですよね。
でも、推論用チップで外販しているのは、Intel NNP-I、GoyaとGroqだけ。。
Groqは学習よりも推論だろ、って言っているんですがね。。。どうなんでしょうか?
2年前の2017年9月30日(土)のChainer Meetup #6での発表資料 このスライド には、Intel Nervana、Graphcore、Wave Computing、Groq、Alphaicsについて書いています。
Wave Computingはチップを2017年のhotchipsで発表しているがその後、IP屋さんになっちゃったみたい。この時は、16nmで実装して、メモリはなんと、HMC(Hybrid Memory Cube)。講演資料は、こちら
Alphaicsは、Edge 用推論チップのようなので、2019年で打ち止めかな。
2019年は淘汰の年かな。
Alphaicsがどんな感じになるかはまだ分からないですが、来年2020年は勝負の年になりそう。