安装TensorRT-Ubuntu

816 未经授权,禁止转载了解课程
课程介绍
讨论{{interaction.discussNum ? '(' + interaction.discussNum + ')' : ''}}
适合人群
希望学习YOLOv8目标检测模型转ONNX后的TensorRT部署方法的学员
你将会学到
掌握YOLOv8目标检测的ONNX模型转换及TensorRT加速部署方法
课程简介

PyTorch版的YOLOv8是先进的高性能实时目标检测方法。 TensorRT是针对英伟达GPU的加速工具。

ONNX (Open Neural Network Exchange) 作为一个开放的网络模型中间表示(IR)格式,提供了跨框架兼容性。

可以方便不同的框架轻松地交换模型,有助于框架之间的互操作性。

本课程讲述如何对YOLOv8目标检测的PyTorch权重文件转成ONNX格式并进行TensorRT加速部署

相比与直接使用TensorRT API构建推理引擎,本方法更具灵活性,可用于YOLOv8网络架构修改后的模型部署。

课程亮点包括:

  • - YOLOv8目标检测的PyTorch权重文件转成ONNX格式,再转成TensorRT 推理引擎

  • - 支持在GPU上端到端TensorRT加速部署,包括预处理(图像resize, 归一化)、网络推理、后处理(非极大抑制) 均在GPU上执行

  • - 支持FP16加速

  • - 提供C++和Python的TensorRT加速命令接口

  • - 分别在Windows和Ubuntu系统上做YOLOv8的ONNX转换及TensorRT部署演示

  • - 支持图片、图片文件夹、视频文件的TensorRT的加速推理

  • - 提供YOLOv8的ONNX转换及TensorRT加速部署代码和代码解析文档

       - 实测推理速度提高2倍以上。

课程内容包括:

  • - 原理篇(YOLOv8网络架构与组件、TensorRT基础、ONNX基础、CUDA编程方法)

  • - 实践篇(Windows和Ubuntu系统上的ONNX模型转换及TensorRT加速部署流程演示)

  • - 代码解析篇(YOLOv8的ONNX模型转换及TensorRT加速的代码解析) 

课程内容.png

展开更多
发布
头像

{{ item.user.nick_name }} {{ EROLE_NAME[item.user.identity] }}

置顶笔记
讨论图
{{ item.create_time }}回复
  • 删除

    是否确认删除?

    确认
    取消
  • {{ item.is_top == 1 ? '取消置顶' : '置顶'}}

    已有置顶的讨论,是否替换已有的置顶?

    确认
    取消
{{ tag.text}}
头像
{{ subitem.user.nick_name }}{{ EROLE_NAME[subitem.user.identity] }}
{{ subitem.create_time }}回复
删除

是否确认删除?

确认
取消
发布
{{pageType === 'video' ? '讨论区抢占沙发,可获得双倍学分' :'讨论区空空如也,你来讲两句~'}}
发布
{{tips.text}}
{{ noteHeaderTitle }} 笔记{{ hasMyNote ? '我的笔记' : '记笔记' }}
{{ hasMyNote ? '我的笔记' : '记笔记' }}
优质笔记
更新于:{{ $dayjs.formate('YYYY-MM-DD HH:mm:ss', item.last_uptime*1000) }}
头像
{{ detail.username }}

公开笔记对他人可见,有机会被管理员评为“优质笔记”

{{ noteEditor.content.length }}/2000

公开笔记
保存
提问

讲师收到你的提问会尽快为你解答。若选择公开提问,可以获得更多学员的帮助。

记录时间点
记录提问时视频播放的时间点,便于后续查看
公开提问
提交