@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった
このツイートで知った TensorFlow Lite の BNN 版?
We’re releasing a new open-source project today! 🎉
— Plumerai (@PlumeraiHQ) 2020年2月17日
Larq Compute Engine is our solution for deploying Binarized Neural Networks to mobile and edge devices, with both an MLIR-based model converter and an inference engine integrated with @TensorFlow Lite: https://t.co/sCFkVXkafF
github にいろいろとアップされています。
Larq is an open-source deep learning library for training neural networks with extremely low precision weights and activations, such as Binarized Neural Networks (BNNs).
とありますね。
ドキュメントは、こちら。
Keras から使えるようです。
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
larq.layers.QuantDense(512,
kernel_quantizer="ste_sign",
kernel_constraint="weight_clip"),
larq.layers.QuantDense(10,
input_quantizer="ste_sign",
kernel_quantizer="ste_sign",
kernel_constraint="weight_clip",
activation="softmax")])
量子化に関する説明もありますね。モデルの作り方 と 学習方法 もあります。
モデル もいろいろありますよ。