日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

OpenCV-图像的基本处理-02

發布時間:2024/9/15 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 OpenCV-图像的基本处理-02 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

灰度圖

import cv2 #opencv讀取的格式是BGR import numpy as np import matplotlib.pyplot as plt#Matplotlib是RGB %matplotlib inline img=cv2.imread('cat.jpg') img_gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) img_gray.shape

HSV

H - 色調(主波長)。
S - 飽和度(純度/顏色的陰影)。
V值(強度)

hsv=cv2.cvtColor(img,cv2.COLOR_BGR2HSV)cv2.imshow("hsv", hsv) cv2.waitKey(0) cv2.destroyAllWindows()

圖像閾值

ret, dst = cv2.threshold(src, thresh, maxval, type)
src: 輸入圖,只能輸入單通道圖像,通常來說為灰度圖
dst: 輸出圖
thresh: 閾值
maxval: 當像素值超過了閾值(或者小于閾值,根據type來決定),所賦予的值
type:二值化操作的類型,包含以下5種類型: cv2.THRESH_BINARY; cv2.THRESH_BINARY_INV; cv2.THRESH_TRUNC; cv2.THRESH_TOZERO;cv2.THRESH_TOZERO_INV

cv2.THRESH_BINARY 超過閾值部分取maxval(最大值),否則取0
cv2.THRESH_BINARY_INV THRESH_BINARY的反轉
cv2.THRESH_TRUNC 大于閾值部分設為閾值,否則不變
cv2.THRESH_TOZERO 大于閾值部分不改變,否則設為0
cv2.THRESH_TOZERO_INV THRESH_TOZERO的反轉

ret, thresh1 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY) ret, thresh2 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY_INV) ret, thresh3 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TRUNC) ret, thresh4 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO) ret, thresh5 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO_INV)titles = ['Original Image', 'BINARY', 'BINARY_INV', 'TRUNC', 'TOZERO', 'TOZERO_INV'] images = [img, thresh1, thresh2, thresh3, thresh4, thresh5]for i in range(6):plt.subplot(2, 3, i + 1), plt.imshow(images[i], 'gray')plt.title(titles[i])plt.xticks([]), plt.yticks([]) plt.show()

圖像平滑

img = cv2.imread('lenaNoise.png')cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows()

# 均值濾波 # 簡單的平均卷積操作 blur = cv2.blur(img, (3, 3))# 輸入的圖像數據 大小3*3cv2.imshow('blur', blur) # 繪圖名字,繪制的圖片 cv2.waitKey(0) cv2.destroyAllWindows()

# 方框濾波 # 基本和均值一樣,可以選擇歸一化 box = cv2.boxFilter(img,-1,(3,3), normalize=True) # 需要處理的圖片數據,-1表示一直,卷積核3*3cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows()

# 方框濾波 # 基本和均值一樣,可以選擇歸一化,normalize=False容易越界 超過最大值255 box = cv2.boxFilter(img,-1,(3,3), normalize=False) cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows()

# 高斯濾波 # 高斯模糊的卷積核里的數值是滿足高斯分布,相當于更重視中間的 aussian = cv2.GaussianBlur(img, (5, 5), 1) cv2.imshow('aussian', aussian) cv2.waitKey(0) cv2.destroyAllWindows()

# 中值濾波 # 相當于用中值代替 median = cv2.medianBlur(img, 5) # 中值濾波cv2.imshow('median', median) cv2.waitKey(0) cv2.destroyAllWindows()

# 展示所有的 # np.hstack 橫屏展示 np.vstack 豎屏展示 res = np.hstack((blur,aussian,median))# 使用np.hstack把 上面的均值 高斯 中值 濾波連在一下 #print (res) cv2.imshow('median vs average', res) cv2.waitKey(0) cv2.destroyAllWindows()

形態學-腐蝕操作

import cv2 import numpy as np img = cv2.imread('dige.png')cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows()

kernel = np.ones((3,3),np.uint8) # 核 erosion = cv2.erode(img,kernel,iterations = 1)# 傳入img ,核 ,指定迭代次數cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows()

pie = cv2.imread('pie.png')cv2.imshow('pie', pie) cv2.waitKey(0) cv2.destroyAllWindows()

kernel = np.ones((30,30),np.uint8) erosion_1 = cv2.erode(pie,kernel,iterations = 1) erosion_2 = cv2.erode(pie,kernel,iterations = 2) erosion_3 = cv2.erode(pie,kernel,iterations = 3)res = np.hstack((pie,erosion_1,erosion_2,erosion_3)) cv2.imshow('res', res) cv2.imwrite('pie_erode_res.jpg',res) cv2.waitKey(0) cv2.destroyAllWindows()

形態學-膨脹操作

# 繪制原圖 img = cv2.imread('dige.png') cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows()

# 腐蝕 kernel = np.ones((3,3),np.uint8) # 核 dige_erosion = cv2.erode(img,kernel,iterations = 1) # 傳入img ,核 ,指定迭代次數cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows()

# 膨脹 我們可以看出線條變粗了 kernel = np.ones((5,5),np.uint8) dige_dilate = cv2.dilate(dige_erosion,kernel,iterations = 1)# 傳入腐蝕后的結果,核數,迭代次數cv2.imshow('dilate', dige_dilate) cv2.waitKey(0) cv2.destroyAllWindows()

pie = cv2.imread('pie.png')kernel = np.ones((30,30),np.uint8) dilate_1 = cv2.dilate(pie,kernel,iterations = 1) dilate_2 = cv2.dilate(pie,kernel,iterations = 2) dilate_3 = cv2.dilate(pie,kernel,iterations = 3) res = np.hstack((dilate_1,dilate_2,dilate_3)) cv2.imshow('res', res) cv2.waitKey(0) cv2.destroyAllWindows()

開運算與閉運算

# 開:先腐蝕,再膨脹 img = cv2.imread('dige.png')kernel = np.ones((5,5),np.uint8) opening = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel)cv2.imshow('opening', opening) cv2.waitKey(0) cv2.destroyAllWindows()

# 閉:先膨脹,再腐蝕 img = cv2.imread('dige.png')kernel = np.ones((5,5),np.uint8) closing = cv2.morphologyEx(img, cv2.MORPH_CLOSE, kernel)cv2.imshow('closing', closing) cv2.waitKey(0) cv2.destroyAllWindows()

梯度運算

# 梯度=膨脹-腐蝕 pie = cv2.imread('pie.png') # 讀入圖片 kernel = np.ones((7,7),np.uint8) # 核數7*7 dilate = cv2.dilate(pie,kernel,iterations = 5) # 傳入圖片 核數 迭代 erosion = cv2.erode(pie,kernel,iterations = 5)res = np.hstack((dilate,erosion))cv2.imshow('res', res) cv2.waitKey(0) cv2.destroyAllWindows()

gradient = cv2.morphologyEx(pie, cv2.MORPH_GRADIENT, kernel)# 傳入圖片 梯度運算 核數cv2.imshow('gradient', gradient) cv2.waitKey(0) cv2.destroyAllWindows()

禮帽與黑帽

禮帽 = 原始輸入-開運算結果
黑帽 = 閉運算-原始輸入

#禮帽cv2.MORPH_TOPHAT img = cv2.imread('dige.png') tophat = cv2.morphologyEx(img, cv2.MORPH_TOPHAT, kernel) cv2.imshow('tophat', tophat) cv2.waitKey(0) cv2.destroyAllWindows()

#黑帽cv2.MORPH_BLACKHAT img = cv2.imread('dige.png') blackhat = cv2.morphologyEx(img,cv2.MORPH_BLACKHAT, kernel) cv2.imshow('blackhat ', blackhat ) cv2.waitKey(0) cv2.destroyAllWindows()

圖像梯度-Sobel算子

# 讀取圖片 import cv2 img = cv2.imread('pie.png',cv2.IMREAD_GRAYSCALE) cv2.imshow("img",img) cv2.waitKey() cv2.destroyAllWindows()


dst = cv2.Sobel(src, ddepth, dx, dy, ksize)

ddepth:圖像的深度
dx和dy分別表示水平和豎直方向
ksize是Sobel算子的大小

# 創建一個圖片讀取的窗口 def cv_show(img,name):cv2.imshow(name,img)cv2.waitKey()cv2.destroyAllWindows() sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3)cv_show(sobelx,'sobelx')

白到黑是正數,黑到白就是負數了,所有的負數會被截斷成0,所以要取絕對值

sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) sobelx = cv2.convertScaleAbs(sobelx) cv_show(sobelx,'sobelx')

sobely = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) sobely = cv2.convertScaleAbs(sobely) cv_show(sobely,'sobely')


分別計算x和y,再求和

sobelxy = cv2.addWeighted(sobelx,0.5,sobely,0.5,0) cv_show(sobelxy,'sobelxy')


不建議直接計算

# 讀取圖片 img = cv2.imread('lena.jpg',cv2.IMREAD_GRAYSCALE) cv_show(img,'img')

img = cv2.imread('lena.jpg',cv2.IMREAD_GRAYSCALE) sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) sobelx = cv2.convertScaleAbs(sobelx) sobely = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) sobely = cv2.convertScaleAbs(sobely) sobelxy = cv2.addWeighted(sobelx,0.5,sobely,0.5,0) cv2.imshow('img',img) cv2.imshow('sobelxy',sobelxy) cv2.waitKey() cv2.destroyAllWindows()


img = cv2.imread(‘lena.jpg’,cv2.IMREAD_GRAYSCALE)

sobelxy=cv2.Sobel(img,cv2.CV_64F,1,1,ksize=3) sobelxy = cv2.convertScaleAbs(sobelxy) cv_show(sobelxy,‘sobelxy’)

import numpy as np #不同算子的差異 img = cv2.imread('lena.jpg',cv2.IMREAD_GRAYSCALE) sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) sobely = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) sobelx = cv2.convertScaleAbs(sobelx) sobely = cv2.convertScaleAbs(sobely) sobelxy = cv2.addWeighted(sobelx,0.5,sobely,0.5,0) scharrx = cv2.Scharr(img,cv2.CV_64F,1,0) scharry = cv2.Scharr(img,cv2.CV_64F,0,1) scharrx = cv2.convertScaleAbs(scharrx) scharry = cv2.convertScaleAbs(scharry) scharrxy = cv2.addWeighted(scharrx,0.5,scharry,0.5,0) laplacian = cv2.Laplacian(img,cv2.CV_64F) laplacian = cv2.convertScaleAbs(laplacian) res = np.hstack((img,sobelxy,scharrxy,laplacian)) cv_show(res,'res')

Canny邊緣檢測

  • 使用高斯濾波器,以平滑圖像,濾除噪聲。

  • 計算圖像中每個像素點的梯度強度和方向。

  • 應用非極大值(Non-Maximum Suppression)抑制,以消除邊緣檢測帶來的雜散響應。

  • 應用雙閾值(Double-Threshold)檢測來確定真實的和潛在的邊緣。

  • 通過抑制孤立的弱邊緣最終完成邊緣檢測。



  • img=cv2.imread("lena.jpg",cv2.IMREAD_GRAYSCALE)# 讀取圖片v1=cv2.Canny(img,80,150) # minval maxval v2=cv2.Canny(img,50,100)res = np.hstack((img,v1,v2)) cv_show(res,'Canny_res')

    img=cv2.imread("car.png",cv2.IMREAD_GRAYSCALE)v1=cv2.Canny(img,120,250) v2=cv2.Canny(img,50,100)res = np.hstack((v1,v2)) cv2.imwrite('Car_Canny.jpg',res) cv_show(res,'res')

    圖像金字塔

    高斯金字塔
    拉普拉斯金字塔

    # 讀取圖片 原圖 import cv2 img=cv2.imread("AM.png") cv_show(img,'img') print (img.shape)

    up=cv2.pyrUp(img)# 放大 上采樣 cv_show(up,'up') print (up.shape)

    up2=cv2.pyrUp(up) cv_show(up2,'up2') print (up2.shape)

    down=cv2.pyrDown(img) # 縮小 下采樣 cv_show(down,'down') print (down.shape)


    up=cv2.pyrUp(img) # 上采樣 up_down=cv2.pyrDown(up) # 在上采樣基礎上執行下采樣 cv_show(up_down,'up_down') # 繪圖 cv_show(np.hstack((img,up_down)),'up_down')

    up=cv2.pyrUp(img) up_down=cv2.pyrDown(up) cv_show(img-up_down,'img-up_down')

    拉普拉斯金字塔

    down=cv2.pyrDown(img) down_up=cv2.pyrUp(down) l_1=img-down_up cv_show(l_1,'l_1')

    圖像輪廓

    cv2.findContours(img,mode,method)
    mode:輪廓檢索模式

    RETR_EXTERNAL :只檢索最外面的輪廓;
    RETR_LIST:檢索所有的輪廓,并將其保存到一條鏈表當中;
    RETR_CCOMP:檢索所有的輪廓,并將他們組織為兩層:頂層是各部分的外部邊界,第二層是空洞的邊界;
    RETR_TREE:檢索所有的輪廓,并重構嵌套輪廓的整個層次**(常用)**;
    method:輪廓逼近方法

    CHAIN_APPROX_NONE:以Freeman鏈碼的方式輸出輪廓,所有其他方法輸出多邊形(頂點的序列)。
    CHAIN_APPROX_SIMPLE:壓縮水平的、垂直的和斜的部分,也就是,函數只保留他們的終點部分。

    為了更高的準確率,使用二值圖像.

    img = cv2.imread('car.png') # 讀取圖片 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 轉換成灰度圖 ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) # 使用二值方法 cv_show(thresh,'thresh')

    原圖

    轉換后

    繪制輪廓

    binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) # print(contours) # print(hierarchy) cv_show(img,'img')# 原圖

    # 傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 # 注意需要copy,要不原圖會變。。。 draw_img = img.copy()# 傳入的圖像 , 輪廓信息 ,-1所有輪廓 輪廓顏色0, 0, 255(BGR顏色),2表示線條寬度 res = cv2.drawContours(draw_img, contours, -1, (0, 0, 255), 2) cv_show(res,'res')

    輪廓特征

    img = cv2.imread('contours.png') # 讀取圖片 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 轉換成灰度圖 ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) # 使用二值方法 cv_show(thresh,'thresh') binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) # print(contours)提取輪廓 # print(hierarchy) cnt = contours[0] # [0] 表示第0個輪廓 #面積 cv2.contourArea(cnt) #周長,True表示閉合的 cv2.arcLength(cnt,True)

    輪廓近似

    img = cv2.imread('contours2.png') # 讀取圖片gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 灰度 ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)# 二值處理 binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)# 找尋輪廓 cnt = contours[0]draw_img = img.copy() res = cv2.drawContours(draw_img, [cnt], -1, (0, 0, 255), 2) #傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 cv_show(res,'res')

    epsilon = 0.1*cv2.arcLength(cnt,True) # 計算周長 approx = cv2.approxPolyDP(cnt,epsilon,True)# 近似draw_img = img.copy() res = cv2.drawContours(draw_img, [approx], -1, (0, 0, 255), 2)#傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 cv_show(res,'res')

    邊界矩形

    img = cv2.imread('contours.png')gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) cnt = contours[2] # 表示第2個輪廓x,y,w,h = cv2.boundingRect(cnt) img = cv2.rectangle(img,(x,y),(x+w,y+h),(0,255,0),2) cv_show(img,'img')

    area = cv2.contourArea(cnt) x, y, w, h = cv2.boundingRect(cnt) rect_area = w * h extent = float(area) / rect_area print ('輪廓面積與邊界矩形比',extent)


    外接圓

    (x,y),radius = cv2.minEnclosingCircle(cnt) center = (int(x),int(y)) radius = int(radius) img = cv2.circle(img,center,radius,(0,255,255),2) cv_show(img,'img')

    模板匹配

    模板匹配和卷積原理很像,模板在原圖像上從原點開始滑動,計算模板與(圖像被模板覆蓋的地方)的差別程度,這個差別程度的計算方法在opencv里有6種,然后將每次計算的結果放入一個矩陣里,作為結果輸出。假如原圖形是AxB大小,而模板是axb大小,則輸出結果的矩陣是(A-a+1)x(B-b+1)

    TM_SQDIFF:計算平方不同,計算出來的值越小,越相關
    TM_CCORR:計算相關性,計算出來的值越大,越相關
    TM_CCOEFF:計算相關系數,計算出來的值越大,越相關
    TM_SQDIFF_NORMED:計算歸一化平方不同,計算出來的值越接近0,越相關
    TM_CCORR_NORMED:計算歸一化相關性,計算出來的值越接近1,越相關
    TM_CCOEFF_NORMED:計算歸一化相關系數,計算出來的值越接近1,越相關

    公式:https://docs.opencv.org/3.3.1/df/dfb/group__imgproc__object.html#ga3a7850640f1fe1f58fe91a2d7583695d

    import cv2 import numpy as np # 模板匹配 img = cv2.imread('lena.jpg', 0)# 讀取圖像 灰度圖 template = cv2.imread('face.jpg', 0)# 讀取圖像 h, w = template.shape[:2]

    # 模板匹配 圖像1 圖像2 指定模板方法 res = cv2.matchTemplate(img, template, cv2.TM_SQDIFF) res.shape min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)# 定位

    # 畫矩形 img2 = img.copy() bottom_right = (min_loc[0] + w, min_loc[1] + h) cv2.rectangle(img2, min_loc, bottom_right, 255, 2) plt.subplot(121), plt.imshow(res, cmap='gray') plt.subplot(122), plt.imshow(img2, cmap='gray') plt.suptitle(meth) plt.show()

    六種模板方法差異

    methods = ['cv2.TM_CCOEFF', 'cv2.TM_CCOEFF_NORMED', 'cv2.TM_CCORR','cv2.TM_CCORR_NORMED', 'cv2.TM_SQDIFF', 'cv2.TM_SQDIFF_NORMED'] # 六種普通的模板方法差異 for meth in methods:img2 = img.copy()# 匹配方法的真值method = eval(meth)print (method)res = cv2.matchTemplate(img, template, method)min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)# 如果是平方差匹配TM_SQDIFF或歸一化平方差匹配TM_SQDIFF_NORMED,取最小值if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]:top_left = min_locelse:top_left = max_locbottom_right = (top_left[0] + w, top_left[1] + h)# 畫矩形cv2.rectangle(img2, top_left, bottom_right, 255, 2)plt.subplot(121), plt.imshow(res, cmap='gray')plt.xticks([]), plt.yticks([]) # 隱藏坐標軸plt.subplot(122), plt.imshow(img2, cmap='gray')plt.xticks([]), plt.yticks([])plt.suptitle(meth)plt.show()



    匹配多個對象

    import cv2 import numpy as np img_rgb = cv2.imread('mario.jpg')# 讀取圖像 img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_BGR2GRAY) template = cv2.imread('mario_coin.jpg', 0) h, w = template.shape[:2]res = cv2.matchTemplate(img_gray, template, cv2.TM_CCOEFF_NORMED)# 模板匹配 threshold = 0.8 # 取匹配程度大于%80的坐標 loc = np.where(res >= threshold) for pt in zip(*loc[::-1]): # *號表示可選參數bottom_right = (pt[0] + w, pt[1] + h)cv2.rectangle(img_rgb, pt, bottom_right, (0, 0, 255), 2)cv2.imshow('img_rgb', img_rgb) cv2.waitKey(0)

    直方圖


    cv2.calcHist(images,channels,mask,histSize,ranges)
    images: 原圖像圖像格式為 uint8 或 ?oat32。當傳入函數時應 用中括號 [] 括來例如[img]
    channels: 同樣用中括號括來它會告函數我們統幅圖 像的直方圖。如果入圖像是灰度圖它的值就是 [0]如果是彩色圖像 的傳入的參數可以是 [0][1][2] 它們分別對應著 BGR。
    mask: 掩模圖像。統整幅圖像的直方圖就把它為 None。但是如 果你想統圖像某一分的直方圖的你就制作一個掩模圖像并 使用它。
    histSize:BIN 的數目。也應用中括號括來
    ranges: 像素值范圍常為 [0-256]

    import cv2 #opencv讀取的格式是BGR import numpy as np import matplotlib.pyplot as plt#Matplotlib是RGB %matplotlib inline def cv_show(img,name):cv2.imshow(name,img)cv2.waitKey()cv2.destroyAllWindows() img = cv2.imread('cat.jpg',0) #0表示灰度圖 hist = cv2.calcHist([img],[0],None,[256],[0,256]) hist.shape plt.hist(img.ravel(),256); plt.show()

    img = cv2.imread('cat.jpg') color = ('b','g','r') for i,col in enumerate(color): # 遍歷每個顏色通道histr = cv2.calcHist([img],[i],None,[256],[0,256]) plt.plot(histr,color = col) plt.xlim([0,256])


    mask操作

    # 創建mast mask = np.zeros(img.shape[:2], np.uint8) print (mask.shape) mask[100:300, 100:400] = 255 # 保存的部分 cv_show(mask,'mask')

    img = cv2.imread('cat.jpg', 0) cv_show(img,'img')

    masked_img = cv2.bitwise_and(img, img, mask=mask)#與操作 cv_show(masked_img,'masked_img')

    hist_full = cv2.calcHist([img], [0], None, [256], [0, 256]) hist_mask = cv2.calcHist([img], [0], mask, [256], [0, 256]) plt.subplot(221), plt.imshow(img, 'gray') plt.subplot(222), plt.imshow(mask, 'gray') plt.subplot(223), plt.imshow(masked_img, 'gray') plt.subplot(224), plt.plot(hist_full), plt.plot(hist_mask) plt.xlim([0, 256]) plt.show()

    直方圖均衡化



    img = cv2.imread('cat.jpg',0) #0表示灰度圖 #clahe plt.hist(img.ravel(),256); plt.show()

    equ = cv2.equalizeHist(img) plt.hist(equ.ravel(),256) plt.show()

    res = np.hstack((img,equ)) cv_show(res,'res')


    自適應直方圖均衡化

    clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8)) res_clahe = clahe.apply(img) res = np.hstack((img,equ,res_clahe)) cv_show(res,'res')

    傅里葉變換

    我們生活在時間的世界中,早上7:00起來吃早飯,8:00去擠地鐵,9:00開始上班。。。以時間為參照就是時域分析。

    但是在頻域中一切都是靜止的!

    https://zhuanlan.zhihu.com/p/19763358

    傅里葉變換的作用
    高頻:變化劇烈的灰度分量,例如邊界

    低頻:變化緩慢的灰度分量,例如一片大海

    濾波
    低通濾波器:只保留低頻,會使得圖像模糊

    高通濾波器:只保留高頻,會使得圖像細節增強

    opencv中主要就是cv2.dft()和cv2.idft(),輸入圖像需要先轉換成np.float32 格式。
    得到的結果中頻率為0的部分會在左上角,通常要轉換到中心位置,可以通過shift變換來實現。
    cv2.dft()返回的結果是雙通道的(實部,虛部),通常還需要轉換成圖像格式才能展示(0,255)。

    import numpy as np import cv2 from matplotlib import pyplot as pltimg = cv2.imread('lena.jpg',0)img_float32 = np.float32(img)dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft) # 得到灰度圖能表示的形式 magnitude_spectrum = 20*np.log(cv2.magnitude(dft_shift[:,:,0],dft_shift[:,:,1]))plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(magnitude_spectrum, cmap = 'gray') plt.title('Magnitude Spectrum'), plt.xticks([]), plt.yticks([]) plt.show()

    import numpy as np import cv2 from matplotlib import pyplot as pltimg = cv2.imread('lena.jpg',0)img_float32 = np.float32(img)dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft)rows, cols = img.shape crow, ccol = int(rows/2) , int(cols/2) # 中心位置# 低通濾波 mask = np.zeros((rows, cols, 2), np.uint8) mask[crow-30:crow+30, ccol-30:ccol+30] = 1# IDFT fshift = dft_shift*mask f_ishift = np.fft.ifftshift(fshift) img_back = cv2.idft(f_ishift) img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1])plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(img_back, cmap = 'gray') plt.title('Result'), plt.xticks([]), plt.yticks([])plt.show()

    img = cv2.imread('lena.jpg',0) img_float32 = np.float32(img)dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT) dft_shift = np.fft.fftshift(dft)rows, cols = img.shape crow, ccol = int(rows/2) , int(cols/2) # 中心位置# 高通濾波 mask = np.ones((rows, cols, 2), np.uint8) mask[crow-30:crow+30, ccol-30:ccol+30] = 0# IDFT fshift = dft_shift*mask f_ishift = np.fft.ifftshift(fshift) img_back = cv2.idft(f_ishift) img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1])plt.subplot(121),plt.imshow(img, cmap = 'gray') plt.title('Input Image'), plt.xticks([]), plt.yticks([]) plt.subplot(122),plt.imshow(img_back, cmap = 'gray') plt.title('Result'), plt.xticks([]), plt.yticks([])plt.show()

    與50位技術專家面對面20年技術見證,附贈技術全景圖

    總結

    以上是生活随笔為你收集整理的OpenCV-图像的基本处理-02的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。