一気に順位入りしそうなのでONNXに力を入れているMicrosoftとしてはいいのかもしれませんね。
@Vengineerの戯言 : Twitter
SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった
Yahooブログが無くなるので、
— ソースコード解析職人 (@Vengineer) August 3, 2019
Hatenaブログに移行しています。
現時点で、2015年から2019年までは、移行できています。
URLは、Vengineer になっています。やったー。
(すべてを Vengineer に!)https://t.co/wqh4zyevIz
残りは、
今日のお昼ぐらいまでには、全部移行できそうです。
かなり前からYahooブログが無くなるので、どこかに移行しないといけないなと思っていました。
Hatenaブログも移行先になったのですが、7月末にやっと移行ツールが出てきたので先週の土曜日に移行作業をやりました。
結構面倒かな?と思いましたが、
ぐらいで、2番目のブログの移行は1時間半ぐらいで4500以上の記事を移行できました。
Yahooブログでは、Wiki記法 でブログ書いていたのですが、
Hatenaブログでは、書いて、おお飾り付けるだけなので、かなり便利です。
それから予約投稿とTwitterへの投稿もできるので嬉しいです。
Yahooブログでは2週間先までの記事しか書けませんが、
Hatenaブログではもっと先まで書けるのはいいですね。
統計データもブログを書いた日数は、年と月、全体数も出るのはいいです。
現時点の背景というかデザインは、
HatenaのデザインからPOPな感じがよかったので選びました。
Yahooブログの時とどうように適度に変えていきます。
P.S
HTMLなので、特別な理由が無い限り、改行は入れない方がいいみたいです。
追記)、2019.08.19
Yahooブログの2019.08.18までの訪問者数は、479,766 人でした。
引用です The embARC Community is a comprehensive resource for embedded developers, providing a single point of access to Free and Open Source Software (FOSS), Tools and Platforms to accelerate the development of embedded applications for ARC Processors.
・embARC Machine Learning Inference (MLI) Library ・Caffe Framework for Synopsys EV6x Processors ・Caffe Models for Synopsys EV6x Processors ・OpenCV for Synopsys EV6x Processorsがあります。
・3GB LPDRR3(CPU 2GB + NPU 1GB) ・16GB eMMC
ROCKPro64 2GB Single Board Computer : Price: $59.99 ROCKPro64 4GB Single Board Computer : Price: $79.99 ROCKPro64-AI 4GB Single Board Computer : Price: $99.99
引用 Pine64「RockPro64」も”RK3399Pro”搭載モデルを予告していましたが、実現しませんでした。 これはもともと”RK3399 Pro”が”RK3399″互換を予定されていたのですが、 その方針が変更され、”RK3399″のチップサイズが22mm×22mmなのに対し、 ”RK3399 Pro”は27mm×27mmとなり、再設計が必要だったためでした。とあるので、NPU用にメモリ追加したんでしょうね。
・3GBメモリ+16GB eMMC : 249ドル(約27,300円) ・6GBメモリ+32GB eMMC : 299ドル(約32,800円)
Bus Speed 4 GT/s OPI
引用 On Package Interconnect、DMIがパッケージの中に入ったときにこの呼び方になった。 基本的にはPCI Express x4でIntel独自プロトコルのインターコネクト)で接続されているPCHだ。
・Added Deep Learning Workbench Profiler for neural network topologies and layers ・Added new non-vision topologies: GNMT, BERT, TDNN (NNet3), ESPNet ・Introduced new Inference Engine Core APIs. Core APIs automate direct mapping to devices, provide Query API for configuration and metrics to determine best deployment platform. ・Added Multi Device Inference with automatic load-balancing across available devices for higher throughput. ・Serialized FP16 Intermediate Representation to work uniformly across all platforms to reduce model size by 2x compared to FP32, improve utilization of device memory and portability of models. ・Model Optimizer Renamed Intel® experimental layer Quantize to FakeQuantize and ONNX Intel® experimental operator Quantize to FakeQuantize. ・Multi-Device plugin Automatic inference load-balancing between multiple devicesなどなど。。。
【Convolutional Neural Network ProcessorをChiselで開発する】 要旨 近年RISC-VプロセッサやGoogle Edge TPUの開発に使われたChiselをCNNプロセッサ開発に使った事例を簡単に紹介します。
引用 Measurement::Start("Sync UDMABuf Input"); p.dma_input_buffer->sync_size(input_byte_size); p.dma_input_buffer->sync_for_device(); Measurement::Stop(); Measurement::Start("Conv2D TCA"); de10_nano::RunTCA(p.device_input_phys_addr, p.device_output_phys_addr, p.device_kernel_phys_addr, p.thresholds, in_w, in_h, k_c, MAX_NBIT_QINPUT, out_w, out_h, out_c, k_w, k_h, cp.padding, cp.stride_along_height); Measurement::Stop(); Measurement::Start("Sync UDMABuf Output"); p.dma_output_buffer->sync_size(output_byte_size); p.dma_output_buffer->sync_for_cpu(); Measurement::Stop();
static volatile uint32_t* csr = nullptr; if (csr == nullptr) { csr = reinterpret_cast<uint32_t*>(mapPhysicalMemory(HPS_TO_FPGA_LW_BASE, 0xFF)); }
while (csr[Csr::statusRegister] != 127) { // std::cout << "Status " << csr[Csr::statusRegister] << std::endl; continue; }
elif self.op.op_type == 'Conv':
conv_func = 'func_QuantizedConv2D'
{conv_func}({inputs_string}, {op.name}, scaling_factors::{op.name}, binConv2D_struct);のように実行されていますね。