English | 简体中文
本示例以 YOLO11n 模型为例,演示如何将 TensorRT-YOLO 的 Deploy 模块集成到 VideoPipe 中进行视频分析。
yolo11n.pt,demo0.mp4,demo1.mp4
请通过提供的链接下载所需的 yolo11n.pt
模型文件和测试视频,并均保存至 worksapce
文件夹。
使用以下命令导出带 EfficientNMS 插件的 ONNX 格式,详细的 trtyolo
CLI 导出方法请阅读 模型导出:
trtyolo export -w workspace/yolo11n.pt -v yolo11 -o workspace -b 2 -s
运行上述命令后,models
文件夹中将生成一个 batch_size
为 2 的 yolo11n.onnx
文件。接下来,使用 trtexec
工具将 ONNX 文件转换为 TensorRT 引擎(fp16):
trtexec --onnx=workspace/yolo11n.onnx --saveEngine=workspace/yolo11n.engine --fp16
-
确保已按照
TensorRT-YOLO
编译 和VideoPipe
编译和调试 对项目进行编译。 -
将项目编译为可执行文件:
# 使用 xmake 编译 xmake f -P . --tensorrt="/path/to/your/TensorRT" --deploy="/path/to/your/TensorRT-YOLO" --videopipe="/path/to/your/VideoPipe" xmake -P . -r # 使用 cmake 编译 mkdir -p build && cd build cmake -DTENSORRT_PATH="/path/to/your/TensorRT" -DDEPLOY_PATH="/path/to/your/TensorRT-YOLO" -DVIDEOPIPE_PATH="/path/to/your/VideoPipe" .. cmake --build . -j8 --config Release
编译完成后,可执行文件将生成在项目根目录的
workspace
文件夹中。 -
使用以下命令运行推理:
cd workspace ./PipeDemo