每日热门:Windows 上基于 TensorRT 的 YOLOV6 部署保姆级教程
项目所需的安装包均放到到如下百度云链接链接:https://pan.baidu.com/s/1C4jYSKAN2P_GSpFiikhY_g提取码:71ou
(相关资料图)
把如下目录的文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\include目录下
把如下目录的文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\lib\x64目录下
安装cmake
第五步onnx转tensorrt引擎,流程如下:从GitHub下载部署代码https://github.com/zhiqwang/yolov5-rt-stack进入如下目录
编辑CMakeLists,设置OpenCV和TensorRT目录
指定CMakeLists.txt目录以及要build的目录
点击cmake的tools->Configure
进入build目录,打开build工程
选择Release
点击生成->生成解决方案,编译完成后进入生成的exe目录
把tensorrt的dll文件放到exe目录下
进入C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin目录
把以下8个dll拷贝到exe目录
cublas64_11.dllcublasLt64_11.dllcudart64_110.dllcudnn_cnn_infer64_8.dllcudnn_ops_infer64_8.dllcudnn64_8.dllnvrtc64_110_0.dllnvrtc-builtins64_110.dll把官方的提供的onnx模型放到exe目录
在exe目录打开命令行,输入build_model.exe yolov6n.onnx yolov6n.engine生成tensorrt引擎
第六步tensorrt引擎推理流程如下:进入D:\yolov6\yolov5-rt-stack\deployment\tensorrt-yolov6目录
编辑CMakeLists,设置OpenCV和TensorRT目录
打开桌面上的cmake,设置tensorrt推理代码的CMakeLists.txt路径以及要build的目录
点击cmake的tools->Configure
点击Generate
打开build工程,选择release,点击生成->生成解决方案,生成tensorrt推理的exe
进入生成tensorrt引擎的exe目录(上一次build的目录)
拷贝dll以及tensorrt推理引擎到tensorrt推理的exe目录(当前build的目录)
把OpenCV的opencv_world411.dll拷贝到推理exe目录
在推理exe目录打开命令行,输入推理命令
yolov6.exe -model_path yolov6n.engine -image_path zidane.jpg
指定推理引擎路径以及推理图片路径,在推理exe目录生成推理可视化结果
相关阅读
-
世界热推荐:今晚7:00直播丨下一个突破...
今晚19:00,Cocos视频号直播马上点击【预约】啦↓↓↓在运营了三年... -
NFT周刊|Magic Eden宣布支持Polygon网...
Block-986在NFT这样的市场,每周都会有相当多项目起起伏伏。在过去... -
环球今亮点!头条观察 | DeFi的兴衰与...
在比特币得到机构关注之后,许多财务专家预测世界将因为加密货币的... -
重新审视合作,体育Crypto的可靠关系才能双赢
Block-987即使在体育Crypto领域,人们的目光仍然集中在FTX上。随着... -
简讯:前端单元测试,更进一步
前端测试@2022如果从2014年Jest的第一个版本发布开始计算,前端开发... -
焦点热讯:刘强东这波操作秀
近日,刘强东发布京东全员信,信中提到:自2023年1月1日起,逐步为...