- 前言:接續前一篇討論YOLO
tags: 六角學院
主題:雜亂大全25-YOLOv3(v1-v4統整資料)簡介(下)
本篇重點:
- 學習YOLO類神經網路
YOLOv1、v2、v3比較
YOLOv4簡介
:::info
:bulb: 請參考上方引用資料,本篇不詳細討論YOLOv4,僅條列式節錄
:::
YOLOv4論文下載:
YOLOv4的五個基本組件:
CBM:Yolov4網絡結構中的最小組件,由Conv+Bn+Mish激活函數三者組成。
CBL:由Conv+Bn+Leaky_relu激活函數三者組成。
Res unit:借鑑Resnet網絡中的殘差結構,讓網絡可以構建的更深。
CSPX:借鑑CSPNet網絡結構,由三個卷積層和X個Res unint模塊Concate組成。
SPP:採用1×1,5×5,9×9,13×13的最大池化的方式,進行多尺度融合。
YOLOv4之四部分:
輸入端:主要包括Mosaic數據增強、cmBN、SAT自對抗訓練
BackBone主幹網絡:CSPDarknet53、Mish激活函數、Dropblock
Neck:目標檢測網絡在BackBone和最後的輸出層之間往往會插入一些層,如:SPP模塊、FPN+PAN結構
Head: Base on YOLOv3
Prediction:輸出層的錨框機制和Yolov3相同,主要改進的是訓練時的損失函數CIOU_Loss,以及預測框篩選的nms變為DIOU_nms
- ==補充==:
Bounding Box Regeression的Loss發展過程:
Smooth L1 Loss-> IoU Loss(2016)-> GIoU Loss(2019)-> DIoU Loss(2020)->CIoU Loss(2020)
YOLOv3、v4比較
YOLOv1、v2、v3、v4比較
:::info
:bulb: 引述參考資料,YOLOv4選用新技術,並有效提升其辨識效果,相當推薦學習!
:::
實作指令
在命令列模式下,切到 keras-yolo3-qwe 目錄
如要偵測 pedestrian.jpg 可執行下面指令
1 | $ python yolo_video.py --input pedestrian.jpg |
或
1 | $ python yolo_video.py --input pedestrian.jpg --output pedestrian_pred.jpg |
上一行會將偵測結果存到 pedestrian_pred.jpg
執行結果:
如要偵測 people.avi 可執行下面指令
1 | $ python yolo_video.py --input people.avi |
或
1 | $ python yolo_video.py --input people.avi --output people_pred.avi |
上一行會將偵測結果存到 people_pred.avi
執行結果:
補充
另外有新出YOLOv4-tiny
https://zhuanlan.zhihu.com/p/151389749
跟最近的Scaled-YOLOv4
https://bbs.cvmart.net/articles/3674
參考資料
- YOLO v1~v4 簡介
https://www.cnblogs.com/wujianming-110117/p/12840766.html- YOLO v1~3 比較
https://blog.cavedu.com/2019/07/25/yolo-identification-model/- YOLO v1~v4
https://tangh.github.io/articles/yolo-from-v1-to-v4/- YOLO v4 介紹
https://medium.com/@chingi071/yolo%E6%BC%94%E9%80%B2-3-yolov4%E8%A9%B3%E7%B4%B0%E4%BB%8B%E7%B4%B9-5ab2490754ef- IoU/GIoU/DIoU/CIoU Loss簡介
https://zhuanlan.zhihu.com/p/104236411- YOLO v1-v5簡介
https://zhuanlan.zhihu.com/p/136382095
- 若有任何問題↓
- 請聯繫我:
liao86221@gmail.com
- 或填表: https://forms.gle/4FB5Tmtd9A7XcXjF8