diff --git a/Docs/2024-10-11/README.md b/Docs/2024-10-11/README.md new file mode 100644 index 0000000..6635bca --- /dev/null +++ b/Docs/2024-10-11/README.md @@ -0,0 +1,21 @@ +# 2024-10-11 组会汇报 + +## 一、科研项目 + + + + + + + + +## 二、工程项目 +## 2.1 目标跟踪流程跑通 +1. 结合yolov8,行人重识别开源项目[fast-reid](https://github.com/JDAI-CV/fast-reid)以及目标跟踪算法deepsort,初步跑通以下3步流程: + 1. 行人检测:通过Yolov5这类目标模型提取当前帧的行人图像。 + 2. 特征提取:基于特征提取模型,如通过faster-reid基于度量学习训练得到的模型提取行人区域图片的特征向量。 + 3. 目标跟踪:结合行人区域特征,通过deepsort进行行人跟踪 +2. 目前存在问题: + 1. 跟踪精度低,存在严重的id switch问题 + 2. 行人重识别模型推理速度慢,占推理总流程时间的90%以上,需要再优化一下![alt text](image/image.png) +3. 尝试解决的方向是根据github上的[原项目](https://github.com/linghu8812/yolov5_fastreid_deepsort_tensorrt)进行优化,因为整个流程基本是根据这个项目来的,我估计应该是缺了一些设置导致上述的问题,使用原项目进行目标跟踪还是非常流畅的,[跟踪结果](video/object_track.mp4) diff --git a/Docs/2024-10-11/image/image.png b/Docs/2024-10-11/image/image.png new file mode 100644 index 0000000..d207c7f Binary files /dev/null and b/Docs/2024-10-11/image/image.png differ diff --git a/Docs/2024-10-11/video/object_track.mp4 b/Docs/2024-10-11/video/object_track.mp4 new file mode 100644 index 0000000..98ea369 --- /dev/null +++ b/Docs/2024-10-11/video/object_track.mp4 @@ -0,0 +1,3 @@ +version https://git-lfs.github.com/spec/v1 +oid sha256:7bd681d99333a0785a203312e70dc96a9fa06b9cc22671ad26f3500a4a55673c +size 17779447