記録のために残しておきます。
Page.24-25に
引用(Page.24) ・Architecture designed for Deep Learning ・High performance HBM2 memory ・Low power design ➔ Goal: 10x Performance/Watt compared to others ・Massively parallel:Apply the supercomputer interconnect technology ➔ Ability to handle large scale neural networks
引用(Page.25) ・ISA: Newly developed for Deep learning ・Micro-Architecture Simple pipeline to remove HW complexity On chip network to share data between DPUs ・Utilize Fujitsu’s HPC experience such as high density FMA and high speed interconnect ➔ Maximize performance(throughput) / watt
このDLUって、HMB2をメモリとして使い、ホストとはインターコネクトで接続を。
単体チップとして使うのではなく、Post-Kのシステム内で使うのね。。。