A.在FPGA硬件下,要求OpenCV运行在CPU或GPU上
B.在VPU硬件下,支持神经网络计算棒
C.在VPU硬件下,不支持macOS操作系统
D.在FPGA硬件下,支持CentOS7.464位
第1题
A.OpenVINO对硬件要求Intel六代及以后酷睿(CoreTM)
B.OpenVINO支持Python3.6
C.OpenVINO支持MicrosoftVisualStudioC++2019
D.OpenVINO不支持Linux操作系统
第2题
A.OpenVINO是Intel发布的,并且支持开源和商用免费
B.OpenVINO工具包支持在边缘启用深度学习推理
C.针对计算机视觉标准的优化调用,包括OpenCV、OpenCL和OpenVX
D.OpenVINO工具包支持从2010年后生成的CPU型号
第3题
A.OpenVINO对CPU的支持是从第3代开始
B.OpenVINO支持Windows操作系统
C.OpenVINO支持Linux操作系统
D.OpenVINO支持Ubuntu和macOS操作系统
第5题
A.OpenVINO中无法融合OpenCVDNN
B.OpenCV可以与IR中间文件集成
C.OpenCV主要用于读取图像或视频帧,无法调用推理引擎(IE)
D.OpenVINO中对OpenCV的优化只基于CPU
第6题
A.OpenVINO支持CPU、VPU、GPU等不同结构的硬件
B.OpenVINO支持CPU、VPU、GPU等不同结构的硬件同时并行推理
C.OpenVINO支持不同硬件之间动态负载均衡
D.异构插件不支持神经网络计算棒二代(NCS2)
第7题
A.OpenVINO对模型训练具有显著性能提升
B.经过OpenVINO的模型优化可以提升模型准确率
C.OpenVINO除支持C++外,还支持Python语言接口
D.OpenVINO在使用前需要经过Intel官方购买并授权
第9题
A.模型经过OpenVINO训练后,再由模型优化和模型推理
B.OpenVINO对模型训练后支持保存为H5和PB两种格式的模型文件
C.OpenVINO只支持C++语言进行项目开发
D.OpenVINO中可使用异步操作进行加速推理速度
第10题
A.推理引擎(InferenceEngine)支持硬件指令集模型加速,然后进入模型优化环节
B.对OpenCV图像处理库进行指令集优化,显著提升性能
C.推理引擎将给定的模型转化为标准的IntermediateRepresentation(IR)
D.推理引擎使用插件架构,每个插件的API各不相同
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!