主要特点:
>在Intel平台上提升计算机视觉相关深度学习性能达19倍以上
>解除CNN-based的网络在边缘设备的性能瓶颈
>对OpenCV,OpenXV*视觉库的传统API实现加速与优化
>基于通用API接口在CPU、GPU、FPGA等设备上运行加上
OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和(Model Optimizer)。
模型优化器(Model Optimizer)
模型优化器(Model Optimizer)将给定的模型转化为标准的 Intermediate Representation (IR) ,并对模型优化。
模型优化器支持的深度学习框架:
ONNX
TensorFlow
Caffe
MXNet
Kaldi
推断引擎(Inference Engine)
推断引擎(Inference Engine)支持硬件指令集层面的深度学习模型加速运行,同时对传统的OpenCV图像处理库也进行了指令集优化,有显著的性能与速度提升。
支持的硬件设备:
CPU
GPU
FPGA
VPU
*参考资料:
1 OpenVINO™ toolkit Documentation
2 Install Intel® Distribution of OpenVINO™ toolkit for Windows* 10
3 Install Intel® Distribution of OpenVINO™ toolkit for Linux*
4 Introduction to Intel® Deep Learning Deployment Toolkit
本文为CSDN博主「mingo_敏」的原创文章
原文链接:https://blog.csdn.net/shanglianlm/java/article/details/89286250