Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

Post-Kのディープラーニング


記録のために残しておきます。


Page.24-25に
引用(Page.24)
 ・Architecture designed for Deep Learning
 ・High performance HBM2 memory
 ・Low power design ➔ Goal:  10x Performance/Watt compared to others
 ・Massively parallel:Apply the supercomputer interconnect technology 
  ➔ Ability to handle large scale neural networks 

引用(Page.25)
 ・ISA: Newly developed for Deep learning
 ・Micro-Architecture 
  Simple pipeline to remove HW complexity 
  On chip network to share data between DPUs 
 ・Utilize Fujitsu’s HPC experience such as high density FMA 
  and high speed interconnect 
  ➔ Maximize performance(throughput) / watt 

このDLUって、HMB2をメモリとして使い、ホストとはインターコネクトで接続を。

単体チップとして使うのではなく、Post-Kのシステム内で使うのね。。。