Vengineerの戯言

人生は短いけど、長いです。人生を楽しみましょう!

PULPでDeep Neural Inference Acelerator



このブログでも二度、紹介しています PLUP
2016年11月7日、PULP と PULPino
2016年8月5日、PULP – An Open Parallel Ultra-Low-Power Processing-Platform 修

PULP Workshop @ HPCA 2018 on 25/2/2018 in Viennaでの資料がgithubにて公開されました。

  ・Open source hardware and our role (Frank)
  ・The PULP family tree (Frank)
  ・Our RISC-V cores: Ariane, RI5CY and friends (Florian) 
 ・Acceleration in PULP (Francesco) 
 ・Our Programmable Multi-Core Accelerator – HERO (Andreas)
 ・Programming PULP (Andreas)

Acceleration in PULP では、
 ・HWCrypt – a Cryptographic Accelerator
 ・HWCE    – a Deep Neural Inference Accelerator

上記の2つのアクセラレータが入ったSoC(Fulmine: a HW-Accelerated IoT System-on-Chip)の説明もあります。
65nmプロセスに実装した4コア版のようです。

また、NTX: Boosting HWPEs for Deep Learning を使ったNTX-Augmented Clusters。
NTXが8個、CPUコアが2個、SRAMたんまりで、DMA付き、AXIにて接続。