openCV 学习

介绍:用于记录自己学习 openCV 的理论笔记

openCV笔记

图像读取

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import cv2
import numpy as np
def cv_show(name,img):
cv2.imshow(name, img)
cv2.waitKey(0)
cv2.destroyAllWindows()
img = cv2.imread('cat.png')
cv_show('cat', img)
# img = cv2.imread('cat.png',cv2.IMREAD_GRAYSCALE)
img = cv2.imread('cat.png',0) #读取灰度图像
cv_show('cat', img)
imgType = type(img) # 图像存储类型
xiangSuNum = img.size # 像素个数
insideType = img.dtype # 数据类型

视频读取

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
import cv2
Video = cv2.VideoCapture('test.mp4')
# 检查是否正确打开
if Video.isOpened():
isOpen, frame = Video.read() # 读取视频的第一帧,isOpen是布尔值,判断是否正常打开。frame为读取第一帧的数据
else:
isOpen = False

while isOpen:
ret, frame = Video.read()
if frame is None:
break
if ret:
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 转为灰度帧
cv2.imshow('result', gray)
if cv2.waitKey(10) & 0xFF == 27:# 27是ACSII码的退出键 waitKey(10)值指定处理完一帧后的等待时间
break

Video.release()
cv2.destroyAllWindows()

截取部分图像数据

1
2
3
4
5
6
# -------------------------截取部分图像数据----------------------------------
import cv2

img = cv2.imread('cat.png')
cat = img[0:500,0:500] # 从左上角开始计算
cv_show('cat',cat)

image-20240513154649550

颜色通道提取

1
2
3
4
5
6
7
8
9
10
import cv2
img = cv2.imread('cat.png')
b, g, r = cv2.split(img) # # 将图像拆分为bgr三通道
img = cv2.merge((b, g, r)) # 将拆出来的 bgr重写为一个图像
# 只保留R
cur_img = img.copy()
cur_img[:, :, 0] = 0
cur_img[:, :, 1] = 0
cv_show('img', cur_img)
# 其他两个通道同理

边界填充

如果实际的图像与需求大小不符,可以将图像边缘进行填充

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import cv2
img = cv2.imread('cat.png')
top_size, bottom_size, left_size, right_size = (50,50,50,50) # 设置上下左右的填充值
replicate = cv2.copyMakeBorder(img,top_size,bottom_size,left_size,right_size,cv2.BORDER_REPLICATE)
reflect = cv2.copyMakeBorder(img,top_size,bottom_size,left_size,right_size,cv2.BORDER_REFLECT)
reflect101 = cv2.copyMakeBorder(img,top_size,bottom_size,left_size,right_size,cv2.BORDER_REFLECT_101)
wrap = cv2.copyMakeBorder(img,top_size,bottom_size,left_size,right_size,cv2.BORDER_WRAP)
constant = cv2.copyMakeBorder(img,top_size,bottom_size,left_size,right_size,cv2.BORDER_CONSTANT,value=0)

import matplotlib.pyplot as plt
plt.subplot(231),plt.imshow(img,'gray'),plt.title('Original')
plt.subplot(232),plt.imshow(replicate,'gray'),plt.title('Replicate')
plt.subplot(233),plt.imshow(reflect,'gray'),plt.title('Reflect')
plt.subplot(234),plt.imshow(reflect101,'gray'),plt.title('Reflect101')
plt.subplot(235),plt.imshow(wrap,'gray'),plt.title('Wrap')
plt.subplot(236),plt.imshow(constant,'gray'),plt.title('Constant')
plt.show()

Snipaste_2024-05-13_16-15-29

图像融合

1
2
3
4
5
6
7
import cv2
img_cat = cv2.imread('cat.png')
img_dog = cv2.imread('dog.png')
# 假设cat图像尺寸为(414,500,3)
# 假设dog图像尺寸为(500,500,3) 就需要先将图像调整为相同尺寸
img_dog = cv2.resize(img_dog,(414,500))
res = cv2.addWeighted(img_cat,0.4,img_dog,0.6,0)

图像阈值

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# ret,dst = cv2.threshold(src,thresh,maxval,type)
# src:输入图像 thresh:阈值(实际的值,不是百分比) maxval:最大可能值(一般为255) type:(怎么判断阈值,判断之后怎么处理)
# cv2.THRESH_BINARY 超过阈值部分取maxval(最大值),否则取0 相当于把亮的地方取255变为白点,暗的地方取0变为黑点,突出主体
# cv2.THRESH_BINARY_INV THRESH_BINARY的反转
# cv2.THRESH_TRUNC 大于阈值部分设为阈值,否则不变
# cv2.THRESH_TOZERO 大于阈值部分不改变,否则设为0
# cv2.THRESH_TOZERO_INV THRESH_TOZERO的反转
import cv2
img_cat = cv2.imread('cat.png')
img_gary = cv2.imread('cat.png', 0)
ret, thresh1 = cv2.threshold(img_gary, 127, 255, cv2.THRESH_BINARY)
ret, thresh2 = cv2.threshold(img_gary, 127, 255, cv2.THRESH_BINARY_INV)
ret, thresh3 = cv2.threshold(img_gary, 127, 255, cv2.THRESH_TRUNC)
ret, thresh4 = cv2.threshold(img_gary, 127, 255, cv2.THRESH_TOZERO)
ret, thresh5 = cv2.threshold(img_gary, 127, 255, cv2.THRESH_TOZERO_INV)
titles = ['Original', 'BINARY', 'BINARY_INV', 'TRUNC', 'TOZERO', 'TOZERO_INV']
images = [img_cat, thresh1, thresh2, thresh3, thresh4, thresh5]

for i in range(6):
plt.subplot(2,3,i+1),plt.imshow(images[i],'gray')
plt.title(titles[i])
plt.xticks([]),plt.yticks([])
plt.show()

Snipaste_2024-05-13_16-48-44

图像平滑处理

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import cv2
img = cv2.imread('cat.png')
# 均值滤波
# 简单的平均卷积操作
blur = cv2.blur(img,(3,3))
cv_show('blur',blur)

# 方框滤波
box = cv2.boxFilter(img,-1,(3,3),normalize=True)
cv_show('box',box)

# 高斯滤波
aussian = cv2.GaussianBlur(img,(5,5),1)
cv_show('aussian',aussian)

# 中值滤波
median = cv2.medianBlur(img,5)
cv_show('median',median)

image-20240513170956530

形态学-腐蚀操作和膨胀操作

去除以下图片的毛刺

image-20240513171053619

1
2
3
4
5
6
7
8
9
10
# -------------------------腐蚀操作----------------------------------
import cv2
img = cv2.imread('dige.png')
kernel = np.ones((5,5),np.uint8)
erosion = cv2.erode(img,kernel,iterations=1)
pie = cv2.imread('pie.png')
# 处理之后变细了
# -------------------------膨胀操作----------------------------------
kernel = np.ones((3,3),np.uint8)
dige_dilate = cv2.dilate(erosion,kernel,iterations=1)

image-20240513171357983

开运算与闭运算

开运算: 先腐蚀再膨胀

闭运算:先膨胀再腐蚀

1
2
3
4
5
6
7
8
9
# 开运算
img = cv2.imread('dige.png')
kernel = np.ones((5,5),np.uint8)
opening = cv2.morphologyEx(img,cv2.MORPH_OPEN,kermel)

# 闭运算
img = cv2.imread('dige.png')
kernel = np.ones((5,5),np.uint8)
opening = cv2.morphologyEx(img,cv2.MORPH_CLOSE,kermel)

梯度运算

1
2
3
4
5
6
7
8
9
# 梯度 = 膨胀 - 腐蚀
pie = cv2.imread('pre.png')
kernel = np.ones((7,7),np.uint8)
dilate = cv2.dilate(pie,kernel,iterations = 5)
erosion = cv2.erode(pie,kernel,iterations = 5)
res = np.hstack(dilate,erosion) # 将两个图片拼在一起显示,横向 vstack为纵向


gradient = cv2.morphologyEx(pie,cv2.MORPH_GRADIENT,kernel)

礼帽与黑帽

  • 礼帽 = 原始输入 - 开运算结果
  • 黑帽 = 闭运算 - 原始输入
1
2
3
4
5
6
7
8
9
10
11
12
13
# 礼帽
img = cv2.imread('dige.png')
tophat = cv2.morphologyEx(img, cv2.MORPH_TOPHAT, kernel)
cv2.imshow('tophat',tophat)
cv2.waitKey(0)
cv2.destroyAllWindows()

# 黑帽
img = cv2.imread('dige.png')
blackhat = cv2.morphologyEx(img, cv2.MORPH_BLACKHAT, kernel)
cv2.imshow('blackhat',blackhat)
cv2.waitKey(0)
cv2.destroyAllWindows()

图像梯度 - Sobel算子

Gx 表示水平方向,Gy 表示垂直方向

image-20240514085623958

1
2
3
4
5
6
7
8
9
10
11
12
img = cv2.imread('pie.png',cv2.IMREAD_GRAYSCALE)
# dst = cv2.Sobel(src, ddepth, dx, dy, ksize)
# ddepth: 图像的深度(通常为 -1)
# dx 和 dy 分别表示水平和竖直方向
# ksize 是 Sobel 算子的大小
sobelx = cv2.Sobel(img, cv2.CV_64F, 1, 0, ksize=3)
# 白到黑是正数,黑到白就是负数,所有负数会被截断成0,所以要取绝对值
sobelx = cv2.convertScaleAbs(sobelx)
# 分别计算出 Gx Gy再求和
sobely = cv2.Sobel(img, cv2.CV_64F, 0, 1, ksize=3)
sobely = cv2.convertScaleAbs(sobely)
sobelxy = cv2.addWeighted(sobelx, 0.5, sobely, 0.5, 0)

图像梯度 - Scharr算子

image-20240514091833419

图像梯度 - laplacian算子

image-20240514091938911

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
img = cv2.imread('lena.jpg', cv2.IMREAD_GRAYSCALE)
sobelx = cv2.Sobel(img, cv2.CV_64F, 1, 0, ksize = 3)
sobely = cv2.Sobel(img, cv2.CV_64F, 0, 1, ksize = 3)
sobelx = cv2.convertScaleAbs(sobelx)
sobely = cv2.convertScaleAbs(sobely)
sobelxy = cv2.addWeighted(sobelx, 0.5, sobely, 0.5, 0)

scharrx = cv2.Scharr(img, cv2.CV_64F, 1, 0)
scharry = cv2.Scharr(img, cv2.CV_64F, 0, 1)
scharrx = cv2.convertScaleAbs(scharrx)
scharry = cv2.convertScaleAbs(scharry)
scharrxy = cv2.addWeighted(scharrx, 0.5, scharry, 0.5, 0)

laplacian = cv2.Laplacian(img, cv2.CV_64F)
laplacian = cv2.convertScaleAbs(laplacian)

res = np.hstack((sobelxy, scharrxy, laplacian))

Canny 边缘检测算法

  • 使用高斯滤波器,以平滑图像, 滤除噪声。
  • 计算图像中每个像素点的梯度强度和方向。
  • 应用非极大值(Non-Maximum Suppression)抑制,以消除边缘检测带来的杂散响应。
  • 应用双阈值(Double-Threshold)检测来确定真实的和潜在的边缘。
  • 通过抑制孤立的弱边缘最终完成边缘检测。

高斯滤波器

image-20240514093645117

梯度和方向

image-20240514093748547

image-20240514093759607

非极大值抑制

image-20240514093830561

image-20240514094041096

双阈值检测

image-20240514094126597

1
2
3
img = cv2.imread('lena.jpg', cv2.IMREAD_GRAYSCALE)
v1 = cv2.Canny(img, 80, 150) # 后面两个数值为minVal 和 maxVal
v2 = cv2.Canny(img, 50, 100)

图像金字塔

image-20240514094745459

高斯金字塔

向下采样方法(缩小)

image-20240514094842231

向上采样方法(放大)

image-20240514095057239

1
2
3
4
5
6
img = cv2.imread("AM.png")
# 上采样
up = cv2.pyrUp(img)
# 下采样
down = cv2.pyrDown(img)

拉普拉斯金字塔

image-20240514095529131

1
2
3
down = cv2.pyrDown(img)
down_up = cv2.pyrUp(down)
l_l = img - down_up

图像轮廓

cv2.findContours(img,mode,method)

mode:轮廓检索模式

  • RETR_EXTERNAL:只检索最外面的轮廓
  • RETR_LIST:检索所有的轮廓,并将其保存到一条链表当中
  • RETR_CCOMP:检索所有的轮廓,并将他们组织为两层,顶层是各部分的外部边界,第二层是空洞的边界
  • RETR_TREE:检索所有的轮廓,并重构嵌套轮廓的整个层次(==用这个就足够==)

method:轮廓逼近方法

  • CHAIN_APPROX_NONE:以Freeman链码的方式输出轮廓,所有其他方法输出多边形(顶点的序列)。
  • CHAIN_APPROX_SIMPLE:压缩水平的、垂直的和斜的部分,也就是,函数只保留他们的终点部分。
1
2
3
4
5
6
7
8
9
img = cv2.imread("contours.png") # 必须为 png 格式
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GARY)
ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) # 二值化
binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX, cv2.CHAIN_APPROX_NONE)
# 传入绘制图像,轮廓,轮廓索引,颜色模式,线条厚度
# 注意需要copy,要不原图会变
draw_img = img.copy()
res = cv2.drawContours(draw_img, contours, -1, (0, 0, 255), 2)# -1表示绘出所有轮廓

轮廓近似

设置阈值 T,找出与 AB 曲线上最远的点 D,判断 D 到 AB 的距离是否小于阈值,若小于则将 AB 直线代替 AB 曲线,若大于,则继续以相同的方法判断 AD 直线能否代替 AD 曲线,以此类推。

image-20240520090634996

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
img = cv2.imread('contour2.png')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GARY)
ret, thresh = cv2.threshold(gary, 127, 255, cv2.THRESH_BINARY)
binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)
cnt = contours[0] # 取出第一个轮廓
# 展示轮廓效果
draw_img = img.copy()
res = cv2.drawContours(draw_img, [cut], -1, (0, 0, 255), 2)
cv.show(res, 'res')

thresholdT = 0.1 # 设置阈值
epsilon = thresholdT*cv2.arcLength(cnt, True)
approx = cv2.approxPloyDP(cnt, epsilon, True)
# 展示近似后的效果
draw_img = img.copy()
res = cv2.drawContours(draw_img, [approx], -1, (0, 0, 255), 2)
cv.show(res, 'res')

边界矩形

画出轮廓的外接矩形

1
2
3
4
5
6
7
8
9
10
11
12
13
img = cv2.imread('contour2.png')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GARY)
ret, thresh = cv2.threshold(gary, 127, 255, cv2.THRESH_BINARY)
binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)
cnt = contours[0] # 取出第一个轮廓

x, y, w, h = cv2.boundingRect(cnt)
img = cv2.rectangle(img, (x, y), (x + w, y + h),(0, 0, 255), 2)
cv2.show(img,'img') # 展示处理后的图像
area = cv2.contourArea(cnt) # 边界包裹的面积
rect_area = w*h # 外接矩形面积
extent = float(area) / rect_area
print('轮廓面积与边界矩形比', extent)

外接圆

1
2
3
4
5
6
# 承接了上一小节的 cnt
(x, y), radius = cv2.minEnclosingCircle(cnt)
center = (int(x), int(y))
radius = int(radius)
img = cv2.circle(img, center, radius, (0, 255, 0), 2)
cv2.show(img,'img') # 展示处理后的图像

一个三角形画出了外接矩形和外接圆

image-20240520092541997

模板匹配

模板匹配和卷积原理很像,模板在原图像上从原点开始滑动,计算模板与(图像被模板覆盖的地方)的差别程度,这个差别程度的计算方法在 opencv 里有 6 种,然后将每次计算的结果放入一个矩阵,作为结果输出。假如原图形是 A * B 大小, 而模板是 a * b 大小,则输出结果的矩阵是(A - a + 1)*(B - b + 1)

  • TM_SQDIFF:计算平方不同,计算出来的值越小,越相关
  • TM_CCORR:计算相关性,计算出来的值越大,越相关
  • TM_CCOEFF:计算相关系数,计算出来的值越大,越相关
  • TM_SQDIFF_NORMED:计算归一化平方不同,计算出来的值越接近0,越相关
  • TM_CCORR_NORMED:计算归一化相关性,计算出来的值越接近1,越相关
  • TM_CCOEFF_NORMED:计算归一化相关系数,计算出来的值越接近1,越相关
1
2
3
4
5
6
7
8
9
10
11
12
13
14
img = cv2.imread('lena.jpg', 0)
template = cv2.imread('face.jpg', 0)
h, w = template.shape[:2]
res = cv2.matchTemplate(img, template, cv2.TM_SQDIFF)
min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
# 匹配多个对象
res = cv2.matchTemplate(img, template, cv2.TM_SQDIFF_NORMED)
threshold = 0.8
# 取匹配程度大于百分之80的坐标
loc = np.where(res >= threshold)
# 画出
for pt in zip(*loc[::-1]):
bottom_right = (pt[0] + w, pt[1] + h)
cv2.rectangle(img, pt, bottom_right, (0, 0, 255), 2)

直方图

image-20240524141705079

cv2.calcHist(images, channels, mask, histSize, ranges)

  • images:原图像图像格式为 uint8 或 float32。当传入函数时,用中括号 [] 括,例如 [img]
  • channels:同样用中括号括来他会告函数我们统幅图 像的直方图。如果入图像是灰度图它的值就是 [0] 如果是彩色图像的传入参数可以是 [0] [1] [2] 他们分别对应着 BGR
  • mask:掩模图像。统整幅图像的直方图就把它为 None。但是如果想统图像某一部分的直方图,就制作一个掩模图像并使用它。
  • histSize:BIN 的数目。也应用中括号括来
  • ranges:像素值范围常为 [0256]
1
2
3
img = cv2.imread('cat.jpg', 0) # 表示灰度图
hist = cv2.calcHist([img], [0], None, [256], [0, 256])
hist.shape

mask 操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 创建mask
mask = np.zeros(img.shape[:2], np.uint8)
mask[100:300, 100:400] = 255
img = cv2.imread('cat.jpg', 0)
masked_img = cv2.bitwise_and(img, img, mask=mask)
hist_full = cv2.calcHist([img], [0], None, [256], [0, 256])
hist_mask = cv2.calcHist([img], [0], mask, [256], [0, 256])
# 绘制结果
plt.subplot(221), plt.imshow(img, 'gray')
plt.subplot(222), plt.imshow(mask, 'gray')
plt.subplot(223), plt.imshow(masked_img, 'gray')
plt.subplot(224), plt.plot(hist_full), plt.plot(hist_mask)
plt.xlim([0, 256])
plt.show()

image-20240524144025475

直方图均衡化

1
2
# 传入一个图像即可
equ = cv2.equalizeHist(img)

结果:

image-20240524144630569

自适应直方图均衡化

将图像分块,只在各自块内进行直方图均衡化处理

1
2
3
4
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
res_clahe = clahe.apply(img)
res = np.hstack((img,equ,res_clahe))
cv_show(res,'res')

image-20240524145111999

傅里叶变换

点击去知乎看详解 ->>> 傅里叶分析之掐死教程(完整版)

傅里叶变换的作用

  • 高频:变化剧烈的灰度分量,例如边界。
  • 低频:变化缓慢的灰度分量,例如一片大海。

滤波:

  • 低通滤波器:只保留低频,会使得图像模糊

  • 高通滤波器:只保留高频,会使得图像细节增强

  • opencv中主要就是 cv2.dft() 和 cv2.idft(),输入图像需要先转换成np.float32 格式

  • 得到的结果中频率为 0 的部分会在左上角,通常要转换到中心位置,可以通过 shift 变换来实现。

  • cv2.dft() 返回的结果是双通道的(实部,虚数),通常还需要转换成图像格式才能展示(0,255)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import numpy as np
import cv2
from matplotlib import pyplot as plt

img = cv2.imread('lena.jpg', 0)
img_float32 = np.float32(img)

dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT)
dft_shift = np.fft.fftshift(dft)
# 得到灰度图能表示的形式
magnitude_spectrum = 20*np.log(cv2.magnitude(dft_shift[:,:,0],dft_shift[:,:,1]))

plt.subplot(121),plt.imshow(img, cmap='gray')
plt.title('Input Image'),plt.xticks([]),plt.yticks([])
plt.subplot(122),plt.imshow(magnitude_spectrum,cmap='gray')
plt.title('Magnitude Spectrum'),plt.xticks([]),plt.yticks([])
plt.show()

image-20240524152306308

低通滤波

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
import numpy as np
import cv2
from matplotlib import pyplot as plt

img = cv2.imread('lena.jpg', 0)
img_float32 = np.float32(img)

dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT)
dft_shift = np.fft.fftshift(dft)

rows, cols = img.shape
crow,ccol = int(row/2),int(cols/2)
# 低通滤波
mask = np.zeros((rows, cols, 2),np.uint8)
mask[crow-30:crow+30, ccol-30:ccol+30] = 1

# IDFT
fshift = dft_shift*mask
f_ishift = np.fft.ifftshift(fshift)
img_back = cv2.idft(f_ishift)
img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1])

plt.subplot(121),plt.imshow(img, cmap='gray')
plt.title('Input Image'),plt.xticks([]),plt.yticks([])
plt.subplot(121),plt.imshow(img_back,cmap='gray')
plt.title('Result'),plt.xticks([]),plt.yticks([])

image-20240524154510402

高通滤波

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
import numpy as np
import cv2
from matplotlib import pyplot as plt

img = cv2.imread('lena.jpg', 0)
img_float32 = np.float32(img)

dft = cv2.dft(img_float32, flags = cv2.DFT_COMPLEX_OUTPUT)
dft_shift = np.fft.fftshift(dft)

rows, cols = img.shape
crow,ccol = int(row/2),int(cols/2)
# 低通滤波
mask = np.ones((rows, cols, 2),np.uint8)
mask[crow-30:crow+30, ccol-30:ccol+30] = 0

# IDFT
fshift = dft_shift*mask
f_ishift = np.fft.ifftshift(fshift)
img_back = cv2.idft(f_ishift)
img_back = cv2.magnitude(img_back[:,:,0],img_back[:,:,1])

plt.subplot(121),plt.imshow(img, cmap='gray')
plt.title('Input Image'),plt.xticks([]),plt.yticks([])
plt.subplot(121),plt.imshow(img_back,cmap='gray')
plt.title('Result'),plt.xticks([]),plt.yticks([])

image-20240524154644740