Vengineerの妄想(準備期間)

人生は短いけど、長いです。人生を楽しみましょう!

Announcing Larq Compute Engine v0.1 Optimized BNN inference for edge devices

@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそすべては、SystemC v0.9公開から始まった 

 

このツイートで知った TensorFlow Lite の BNN 版?

 github にいろいろとアップされています。

github.com

Larq is an open-source deep learning library for training neural networks with extremely low precision weights and activations, such as Binarized Neural Networks (BNNs).

 とありますね。

ドキュメントは、こちら

 

Keras から使えるようです。

model = tf.keras.models.Sequential([
     tf.keras.layers.Flatten(),
     larq.layers.QuantDense(512,
                                             kernel_quantizer="ste_sign",
                                             kernel_constraint="weight_clip"),
    larq.layers.QuantDense(10,
                                            input_quantizer="ste_sign",
                                            kernel_quantizer="ste_sign",
                                            kernel_constraint="weight_clip",
                                           activation="softmax")])

 

 量子化に関する説明もありますね。モデルの作り方学習方法 もあります。

モデル もいろいろありますよ。