日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

【CV】一文看懂目标检测神器YOLO5

發布時間:2025/3/8 目标检测 84 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【CV】一文看懂目标检测神器YOLO5 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.


? 磐創AI出品??

該庫代表Ultralytics對未來對象檢測方法的開源研究,并結合了以前的YOLO庫https://github.com/ultralytics/yolov3在自定義數據集上訓練了數千個模型而得到的最佳實踐。所有代碼和模型都在積極的開發中,如有修改或刪除,恕不另行通知。如果使用,風險自負。

GPU速度測量:使用V100的GPU在超過5000張COCO val2017圖像上測量批處理大小為8的平均每張圖像的端到端時間,包括圖像預處理,PyTorch FP16推斷,后處理和NMS。
  • 「2020年6月22日」:PANet(https://arxiv.org/abs/1803.01534)更新:新的特性,更少的參數,更快的推理和改進的mAP 364fcfd(https://github.com/ultralytics/yolov5/commit/364fcfd7dba53f46edd4f04c037a039c0a287972)。

  • 「2020年6月19日」:FP16(https://pytorch.org/docs/stable/nn.html#torch.nn.Module.half)作為新的默認設置,可用于更小的檢查點和更快的推斷d4c6674(https://github.com/ultralytics/yolov5/commit/d4c6674c98e19df4c40e33a777610a18d1961145)。

  • 「2020年6月9日」:CSP(https://github.com/WongKinYiu/CrossStagePartialNetworks)更新:改進了速度,大小和準確性(歸功于@WongKinYiu)。

  • 「2020年5月27日」:公開發布庫。YOLOv5模型是所有已知YOLO實現中最先進(SOTA)的。

  • 「2020年4月1日」:未來開始發展基于YOLOv3(https://github.com/ultralytics/yolov3) / YOLOv4(https://github.com/AlexeyAB/darknet)的一系列PyTorch模型。

預訓練的檢查點(checkpoints)

ModelAPvalAPtestAP50SpeedGPUFPSGPU
paramsFLOPS
YOLOv5s36.636.655.8「2.1ms」「476」
7.5M13.2B
YOLOv5m43.443.462.43.0ms333
21.8M39.4B
YOLOv5l46.646.765.43.9ms256
47.8M88.1B
YOLOv5x「48.4」「48.4」「66.9」6.1ms164
89.0M166.4B
YOLOv3-SPP45.645.565.24.5ms222
63.0M118.0B

AP測試表示COCOtest-dev2017(http://cocodataset.org/#upload)服務器結果,表中所有其他AP結果表示val2017準確性。所有AP編號均適用于單模型單尺度,而沒有集成或測試時間增加。通過python test.py --img 736 --conf 0.001進行使用。速度GPU測量:進行再現使用一個V100的GPU和一個GCPn1-standard-16)(https://cloud.google.com/compute/docs/machine-types#n1_standard_machine_types)實例在超過5000張COCO val2017圖像上測量每張圖像的端到端時間,包括圖像預處理,PyTorch FP16圖像推斷(批量大小 32 --img-size 640),后處理和NMS。此圖表中包括的平均NMS時間為1-2ms / img。通過python test.py --img 640 --conf 0.1進行測試。**所有檢查點均使用默認的設置和超參數訓練到300個epochs(無自動增強)。

要求

Python 3.7或更高版本,安裝了requirements.txt要求的所有的庫和torch >= 1.5,運行下面命令進行安裝:

$?pip?install?-U?-r?requirements.txt

教程

  • Notebook(https://github.com/ultralytics/yolov5/blob/master/tutorial.ipynb)

  • Kaggle(https://www.kaggle.com/ultralytics/yolov5-tutorial)

  • Train Custom Data(https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data)

  • PyTorch Hub(https://github.com/ultralytics/yolov5/issues/36)

  • ONNX and TorchScript Export(https://github.com/ultralytics/yolov5/issues/251)

  • Test-Time Augmentation (TTA)(https://github.com/ultralytics/yolov5/issues/303)

  • Google Cloud Quickstart(https://github.com/ultralytics/yolov5/wiki/GCP-Quickstart)

  • Docker Quickstart(https://github.com/ultralytics/yolov5/wiki/Docker-Quickstart)

推斷

可以在大多數常見的媒體格式上進行推斷。模型檢查點(https://drive.google.com/open?id=1Drs_Aiu7xx6S-ix95f9kNsA6ueKRpN2J)(在網上如果有對應的檢查點的話)會自動下載。結果保存到./inference/output。

$?python?detect.py?--source?file.jpg??#?image?file.mp4??#?video./dir??#?directory0??#?webcamrtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa??#?rtsp?streamhttp://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8??#?http?stream

要對./inference/images文件夾中的示例進行推斷,請執行以下操作:

$?python?detect.py?--source?./inference/images/?--weights?yolov5s.pt?--conf?0.4Namespace(agnostic_nms=False,?augment=False,?classes=None,?conf_thres=0.4,?device='',?fourcc='mp4v',?half=False,?img_size=640,?iou_thres=0.5,?output='inference/output',?save_txt=False,?source='./inference/images/',?view_img=False,?weights='yolov5s.pt') Using?CUDA?device0?_CudaDeviceProperties(name='Tesla?P100-PCIE-16GB',?total_memory=16280MB)Downloading?https://drive.google.com/uc?export=download&id=1R5T6rIyy3lLwgFXNms8whc-387H0tMQO?as?yolov5s.pt...?Done?(2.6s)image?1/2?inference/images/bus.jpg:?640x512?3?persons,?1?buss,?Done.?(0.009s) image?2/2?inference/images/zidane.jpg:?384x640?2?persons,?2?ties,?Done.?(0.009s) Results?saved?to?/content/yolov5/inference/output

復現我們的訓練

下載COCO(https://github.com/ultralytics/yolov5/blob/master/data/get_coco2017.sh),安裝Apex(https://github.com/NVIDIA/apex)并在運行下面命令。在一臺有V100的GPU上,YOLOv5s / m / l / x的訓練時間為2/4/6/8天(多個GPU的訓練速度更快)。使用您的GPU允許的最大--batch-size容量(下面的batchsize是為16 GB設備而設置的)。

$?python?train.py?--data?coco.yaml?--cfg?yolov5s.yaml?--weights?''?--batch-size?64yolov5m????????????????????????????????48yolov5l????????????????????????????????32yolov5x????????????????????????????????16

復現我們的環境

要訪問最新的工作環境(已預安裝所有庫,包括CUDA / CUDNN,Python和PyTorch),請考慮以下網站:

  • 「Google Cloud」 深度學習VM,提供$300的免費贈金:請參閱我們的GCP快速入門指南(https://github.com/ultralytics/yolov5/wiki/GCP-Quickstart)

  • 「Google Colab Notebook」 具有12小時的免費GPU時間。

  • 「Docker Image」 https://hub.docker.com/r/ultralytics/yolov5

    請參閱Docker快速入門指南(https://github.com/ultralytics/yolov5/wiki/Docker-Quickstart)

引用


關于我們

Ultralytics是一家總部位于美國的粒子物理學和AI初創公司,擁有超過6年的專業知識,可為政府,學術和商業客戶提供支持。我們可以提供廣泛的計算機視覺AI服務,從簡單的專家建議到交付完全定制的端到端生產解決方案,包括:

  • 「基于云的AI」系統可「實時」處理「數百個高清視頻流。」

  • 「Edge AI」已集成到自定義iOS和Android應用程序中,可實時進行「30 FPS視頻推斷。」

  • 「自定義數據訓練」,超參數設置和可以把模型導出到任何地方。

有關業務查詢和專業支持的相關請求,請訪問https://www.ultralytics.com。

聯系

有問題(issue)可以直接在庫中提出。對于業務查詢或專業支持的相關請求,請訪問https://www.ultralytics.com或email Glenn Jocher, glenn.jocher@ultralytics.com。

原文鏈接:https://github.com/ultralytics/yolov5

往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群請掃碼進群: 與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的【CV】一文看懂目标检测神器YOLO5的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。