所需E币: 0
时间: 2023-6-29 11:57
大小: 1.55KB
《OpenVINO2022计算机视觉模型部署与加速教程》分享,视频+源码+模型文件+思维导图下载!1.1OpenVINOTMTM安装环境OpenVINOTMTM是一款依赖计算机或智能设备硬件的模型推理部署套件,在边缘启用基于CNN的深度学习推理,支持跨英特尔®CPU、英特尔®集成显卡、英特尔®神经计算棒2和英特尔®视觉加速器设计与英特尔®MovidiusTMVPU的异构执行。此处我们介绍在Windows平台上的安装和使用。由于OpenVINOTMTM是一款依赖计算机或智能设备硬件的模型推理部署套件,因此它可以在自家的设备上很好的运行,经过测试,在Windows平台上,非intelCPU设备也可以运行OpenVINOTMTM,例如AMD推出的CPU,此处安装使用的设备为AMDR7-5800H;对于显卡设备不支持英伟达等其他显卡,仅支持英特尔自家显卡。友情提醒在导出ONNX格式模型后,可以使用Netron可视化网络结构,明确网络的输入、输出名称以及尺寸,为推理作准备!导出时可以指定input&outputname,尤其是多输出模型,这样在推理后可以推理请求中根据name获取结果;实际上,OpenVINO2022支持自动获取输入、输出节点名称!!单输入、单输出的模型可以放心交给API,而多输出模型也可以像旧版本一样通过name获取,也可以通过输出编号获取结果。2022版本加载模型提供了两种模式分别是read_model与compile_model方式,这两种方式得到分别是model跟compiledmodel,其中通过read_model方式读取的model对象可以通过compile_model函数转换为compiledmodel,同时它们都支持直接访问属性获取输入与输出层信息(inputs/outputs)然后重启VS2019,执行如下代码测试:#include<openvino/openvino.hpp>#include<opencv2/opencv.hpp>usingnamespacecv;usingnamespacestd;intmain(intargc,char**argv){ //创建IE插件,查询支持硬件设备 ov::Coreie; vector<string>availableDevices=ie.get_available_devices(); for(inti=0;i<availableDevices.size();i++){ printf("supporteddevicename:%s\n",availableDevices[i].c_str()); } return0;}