日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

解决图像目标检测两框重叠问题

發布時間:2024/3/13 目标检测 94 豆豆
生活随笔 收集整理的這篇文章主要介紹了 解决图像目标检测两框重叠问题 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • 1 問題現象
  • 2 解決辦法
  • 3 Non-Maximum Suppression 原理
    • 3.1 什么是非極大值抑制
    • 3.2 為什么要用非極大值抑制
    • 3.3 如何使用非極大值抑制
    • 3.4 效果
  • 4 參考資料:

1 問題現象

使用yolo v3 等目標檢測模型訓練自己數據集,預測圖片時出現問題: 兩框重疊,如下圖所示:對于同樣一輛汽車,模型反復的標記。


2 解決辦法

解決辦法就是:非極大值抑制(Non-Maximum Suppression)

3 Non-Maximum Suppression 原理

3.1 什么是非極大值抑制

非極大值抑制,簡稱為NMS算法,英文為Non-Maximum Suppression。其思想是搜素局部最大值,抑制極大值。NMS算法在不同應用中的具體實現不太一樣,但思想是一樣的。非極大值抑制,在計算機視覺任務中得到了廣泛的應用,例如邊緣檢測、人臉檢測、目標檢測(DPM,YOLO,SSD,Faster R-CNN)等。

3.2 為什么要用非極大值抑制

以目標檢測為例:目標檢測的過程中在同一目標的位置上會產生大量的候選框,這些候選框相互之間可能會有重疊,此時我們需要利用非極大值抑制找到最佳的目標邊界框,消除冗余的邊界框。Demo如下圖:


左圖是人臉檢測的候選框結果,每個邊界框有一個置信度得分(confidence score),如果不使用非極大值抑制,就會有多個候選框出現。右圖是使用非極大值抑制之后的結果,符合我們人臉檢測的預期結果。

3.3 如何使用非極大值抑制

前提:目標邊界框列表及其對應的置信度得分列表,設定閾值,閾值用來刪除重疊較大的邊界框。
IoU:intersection-over-union,即兩個邊界框的交集部分除以它們的并集。

非極大值抑制的流程如下:

  • 根據置信度得分進行排序
  • 選擇置信度最高的比邊界框添加到最終輸出列表中,將其從邊界框列表中刪除
  • 計算所有邊界框的面積
  • 計算置信度最高的邊界框與其它候選框的IoU。
  • 刪除IoU大于閾值的邊界框
  • 重復上述過程,直至邊界框列表為空。
  • Python代碼如下:

    #!/usr/bin/env python # _*_ coding: utf-8 _*_import cv2 import numpy as np"""Non-max Suppression Algorithm@param list Object candidate bounding boxes@param list Confidence score of bounding boxes@param float IoU threshold@return Rest boxes after nms operation """ def nms(bounding_boxes, confidence_score, threshold):# If no bounding boxes, return empty listif len(bounding_boxes) == 0:return [], []# Bounding boxesboxes = np.array(bounding_boxes)# coordinates of bounding boxesstart_x = boxes[:, 0]start_y = boxes[:, 1]end_x = boxes[:, 2]end_y = boxes[:, 3]# Confidence scores of bounding boxesscore = np.array(confidence_score)# Picked bounding boxespicked_boxes = []picked_score = []# Compute areas of bounding boxesareas = (end_x - start_x + 1) * (end_y - start_y + 1)# Sort by confidence score of bounding boxesorder = np.argsort(score)# Iterate bounding boxeswhile order.size > 0:# The index of largest confidence scoreindex = order[-1]# Pick the bounding box with largest confidence scorepicked_boxes.append(bounding_boxes[index])picked_score.append(confidence_score[index])# Compute ordinates of intersection-over-union(IOU)x1 = np.maximum(start_x[index], start_x[order[:-1]])x2 = np.minimum(end_x[index], end_x[order[:-1]])y1 = np.maximum(start_y[index], start_y[order[:-1]])y2 = np.minimum(end_y[index], end_y[order[:-1]])# Compute areas of intersection-over-unionw = np.maximum(0.0, x2 - x1 + 1)h = np.maximum(0.0, y2 - y1 + 1)intersection = w * h# Compute the ratio between intersection and unionratio = intersection / (areas[index] + areas[order[:-1]] - intersection)left = np.where(ratio < threshold)order = order[left]return picked_boxes, picked_score# Image name image_name = 'nms.jpg'# Bounding boxes bounding_boxes = [(187, 82, 337, 317), (150, 67, 305, 282), (246, 121, 368, 304)] confidence_score = [0.9, 0.75, 0.8]# Read image image = cv2.imread(image_name)# Copy image as original org = image.copy()# Draw parameters font = cv2.FONT_HERSHEY_SIMPLEX font_scale = 1 thickness = 2# IoU threshold threshold = 0.4# Draw bounding boxes and confidence score for (start_x, start_y, end_x, end_y), confidence in zip(bounding_boxes, confidence_score):(w, h), baseline = cv2.getTextSize(str(confidence), font, font_scale, thickness)cv2.rectangle(org, (start_x, start_y - (2 * baseline + 5)), (start_x + w, start_y), (0, 255, 255), -1)cv2.rectangle(org, (start_x, start_y), (end_x, end_y), (0, 255, 255), 2)cv2.putText(org, str(confidence), (start_x, start_y), font, font_scale, (0, 0, 0), thickness)# Run non-max suppression algorithm picked_boxes, picked_score = nms(bounding_boxes, confidence_score, threshold)# Draw bounding boxes and confidence score after non-maximum supression for (start_x, start_y, end_x, end_y), confidence in zip(picked_boxes, picked_score):(w, h), baseline = cv2.getTextSize(str(confidence), font, font_scale, thickness)cv2.rectangle(image, (start_x, start_y - (2 * baseline + 5)), (start_x + w, start_y), (0, 255, 255), -1)cv2.rectangle(image, (start_x, start_y), (end_x, end_y), (0, 255, 255), 2)cv2.putText(image, str(confidence), (start_x, start_y), font, font_scale, (0, 0, 0), thickness)# Show image cv2.imshow('Original', org) cv2.imshow('NMS', image) cv2.waitKey(0)

    3.4 效果

    具體解決辦法就是減小 IoU threshold (IoU 閾值)

    IoU閾值為0.6的時候:

    IoU閾值為0.4的時候:

    4 參考資料:

    • 《非極大值抑制(Non-Maximum Suppression)》:https://zhuanlan.zhihu.com/p/37489043
    • 《訓練自己數據集,預測圖片時出現問題》https://github.com/qqwweee/keras-yolo3/issues/354

    總結

    以上是生活随笔為你收集整理的解决图像目标检测两框重叠问题的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 欧美日韩在线视频一区二区 | 色网在线视频 | 色就色综合| 久操免费在线视频 | 在线黄色网页 | 免费毛片一区二区三区久久久 | 电影一区二区三区 | 无码人妻精品一区二区蜜桃色欲 | 亚洲熟妇av一区二区三区 | av在线你懂的| 亚州男人的天堂 | 我爱avav色aⅴ爱avav | 男人天堂怡红院 | 色多多在线看 | 青青草免费观看视频 | 国产伦乱| 欧美电影一区 | 日本中文字幕一区 | 日本精品视频一区 | 色av综合| 欧美黑吊大战白妞欧美大片 | 久久夜夜夜 | 邻居少妇张开双腿让我爽一夜 | 第一福利丝瓜av导航 | 国产成人无遮挡在线视频 | 人妻无码中文久久久久专区 | 激情五月婷婷综合网 | 亚洲在线一区二区三区 | 亚洲4p| 欧美色综合色 | 亚洲精品一区二 | 四虎永久在线精品免费网址 | 国产精品美女视频 | www.精品 | 99er在线 | 香蕉视频99 | 久久男人天堂 | 国产免费一区二区三区四区五区 | 亚洲国产精品视频一区 | 中文字幕国产精品 | 中文av一区二区三区 | 国产精品国产三级国产普通话蜜臀 | 日韩黄色录像 | 久草视频福利 | 制服丝袜在线一区 | 岛国伊人 | 欧美日韩综合视频 | 欧美成人乱码一区二区三区 | 男女网站在线观看 | 日韩91在线 | 天堂视频一区 | 国产一二三在线 | 日本不卡一二三区 | 亚洲伦乱 | 国产xxx在线| 春闺艳妇(h)高h产乳 | a视频在线播放 | av黄| 999久久久国产精品 韩国精品一区二区 | 性生活三级视频 | 亚洲精品视频中文字幕 | av大全在线观看 | 亲女禁h啪啪宫交 | 午夜在线观看影院 | 雨宫琴音一区二区三区 | 深田咏美中文字幕 | 免费成人激情视频 | 国产电影一区在线观看 | 国产精品一区二区三区在线播放 | 精品一区二区三区免费观看 | 国产在线播放一区二区三区 | 色哟哟在线| 四虎影视永久地址 | 日皮视频网站 | 日本一区二区精品视频 | 欧美无专区 | 免费色站 | 亚洲不卡av一区二区 | 女~淫辱の触手3d动漫 | 人人狠狠| 欧美另类videosbestsex日本 | 激情五月婷婷色 | 99插插| 亚洲精品成人 | 成年人性生活视频 | 激情欧美一区二区 | 三级网站在线免费观看 | 久爱视频在线 | 男女激情网址 | 男女作爱网站 | 亚洲午夜av久久乱码 | 91精品推荐 | 欧美亚洲免费 | 在线国产网站 | 很污的网站 | 蜜臀av性久久久久蜜臀aⅴ四虎 | 一区二区三区四区免费视频 | 日本一区二区三区视频在线 | 成人视品 |