雜亂大全25-YOLOv3(v1-v4統整資料)簡介(下)

  • 前言:接續前一篇討論YOLO
tags: 六角學院

主題:雜亂大全25-YOLOv3(v1-v4統整資料)簡介(下)

本篇重點:

  • 學習YOLO類神經網路

YOLOv1、v2、v3比較




YOLOv4簡介

:::info
:bulb: 請參考上方引用資料,本篇不詳細討論YOLOv4,僅條列式節錄
:::

YOLOv4論文下載:

https://1drv.ms/b/s!AqstO-BYCWeDw3y_KIX9j6oo99qR?e=d2vvEh

YOLOv4的五個基本組件:

CBM:Yolov4網絡結構中的最小組件,由Conv+Bn+Mish激活函數三者組成。
CBL:由Conv+Bn+Leaky_relu激活函數三者組成。
Res unit:借鑑Resnet網絡中的殘差結構,讓網絡可以構建的更深。
CSPX:借鑑CSPNet網絡結構,由三個卷積層和X個Res unint模塊Concate組成。
SPP:採用1×1,5×5,9×9,13×13的最大池化的方式,進行多尺度融合。

YOLOv4之四部分:

輸入端:主要包括Mosaic數據增強、cmBN、SAT自對抗訓練
BackBone主幹網絡:CSPDarknet53、Mish激活函數、Dropblock
Neck:目標檢測網絡在BackBone和最後的輸出層之間往往會插入一些層,如:SPP模塊、FPN+PAN結構
Head: Base on YOLOv3
Prediction:輸出層的錨框機制和Yolov3相同,主要改進的是訓練時的損失函數CIOU_Loss,以及預測框篩選的nms變為DIOU_nms

  • ==補充==:
    Bounding Box Regeression的Loss發展過程:
    Smooth L1 Loss-> IoU Loss(2016)-> GIoU Loss(2019)-> DIoU Loss(2020)->CIoU Loss(2020)

YOLOv3、v4比較

YOLOv1、v2、v3、v4比較


:::info
:bulb: 引述參考資料,YOLOv4選用新技術,並有效提升其辨識效果,相當推薦學習!
:::


實作指令

在命令列模式下,切到 keras-yolo3-qwe 目錄
如要偵測 pedestrian.jpg 可執行下面指令

1
$ python yolo_video.py --input pedestrian.jpg

1
$ python yolo_video.py --input pedestrian.jpg --output pedestrian_pred.jpg

上一行會將偵測結果存到 pedestrian_pred.jpg

執行結果:

image

如要偵測 people.avi 可執行下面指令

1
$ python yolo_video.py --input people.avi

1
$ python yolo_video.py --input people.avi --output people_pred.avi

上一行會將偵測結果存到 people_pred.avi

執行結果:

補充

另外有新出YOLOv4-tiny
https://zhuanlan.zhihu.com/p/151389749
跟最近的Scaled-YOLOv4
https://bbs.cvmart.net/articles/3674


參考資料