原来是模板匹配替代机器学习
1、灰度图2、检测到多个轮廓,过滤操作
其实实际这种问题应该不会用blob分析吧...因为没有这么规整图片
这里要识别的卡号位置是固定的,直接弄一个roi不就好了吗
听不懂思密达
现在的代码会报错,主要是有几个api返回的参数变成两个了,所以删掉第一个返回的参数就可以跑起来了 findContours 方法返回值是两个,老师给的代码里是三个,把第一个删了就好了
#导入工具包
from imutils import contours import numpy as np
import argparse import imutils import cv2 import myutils #设置参数
ap = argparse.ArgumentParser()
ap.add_argument("-i", "--image",required=True, help="path to input image")
ap.add_argument("-t", "--template", required=True, help="path to template OCR-A image")
args = vars(ap.parse_args()) #指定信用卡类型
FIRST_NUMBER={
"3": "American Express", "4":"Visa",
"5":"MasterCard", "6": "Discover Card" }
#绘图展示
def cv_show(name,img):
cv2.imshow(name, img) cv2.waitKey(0)
cv2.destroyAllWindows() #读取一个模板图像
img = cv2.imread(args["template"]) cv_show('img',img)
#灰度图
ref= cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) cv_show('ref',ref)
#二值图像
ref = cv2.threshold(ref, 10,255,cv2.THRESH_BINARY_INV)[1] cv_show('ref',ref)
#计算轮廓
#cv2.findContours()函数接受的参数为二值图,即黑白的(不是灰度图),cv2.RETR EXTERNAL只检测外轮廓,cv2.CHAIN APPROX SIMPLE只保留终点坐标
#返回的list中每个元素都是图像中的一个轮廓
ref_, refCnts, hierarchy = cv2.findContours(ref.copy(), cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
cv2.drawContours(img,refCnts,-1,(0,0,255),3)
cv_show('img',img)
print(np.array(refCnts).shape)
refCnts = myutils.sort_contours(refCnts, method="left-to-right")[0]#排序,从左到右,从上到下,because给定的模板是0123456789
digits = {}
#遍历每一个轮廓
for(i, c)in enumerate(refCnts):
#计算外接矩形并且resize成合适大小
(x,y, w, h)= cv2.boundingRect(c)
roi = ref[y:y + h, x:x + w]
roi = cv2.resize(roi,(57, 88))
#每一个数字对应每一个模板
digits[i] = roi
#初始化卷积核
rectKernel = cv2.getStructuringElement(cv2.MORPH_RECT,(9, 3))
sqKernel = cv2.getStructuringElement(cv2.MORPH_RECT,(5, 5))#核
#读取输入图像,预处理
image = cv2.imread(args["image"])
cv_show('image', image)
image = myutils. resize(image, width=300)
#imutils里面有这个resize,这里是给定w来进行缩放,h会自动计算缩放倍数,大家可以去看看源码
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
cv_show('gray', gray)
#礼帽操作,突出更明亮的区域
tophat = cv2.morphologyEx(gray, cv2.MORPH_TOPHAT, rectKernel)
cv_show('tophat', tophat)
gradX = cv2.Sobel(tophat, ddepth=cv2.CV_32F, dx=1, dy=0,ksize=-1)
#有人说只有X,有人说xy会更清晰
gradX = np. absolute(gradX)
(minVal, maxVal)=(np.min(gradX), np.max(gradX))
gradX =(255 *((gradX - minVal)/(maxVal - minVal))
gradX = gradx. astype("uint8")
print (np.array(gradX).shape)
cv_show('gradX',gradx)
#通过闭操作(先膨胀,再腐蚀)将数字连在一起
gradx=cv2.morphologyEx(gradx, cv2.MORPH_CLOSE, rectKernel) cv_show('gradX',gradx)
#THRESH_OTSU会自动寻找合适的阈值,适合双峰,需把阈值参数设置为0thresh =cv2.threshold(gradx,0,255,
cv2.THRESH_BINARY | cv2.THRESH_OTSU)[1] cv_show('thresh',thresh)
#再来一个闭操作 这里的二值化相当于是做一个蒙版,用于区别那个位置需要识别
thresh=cv2.morphologyEx(thresh,cv2.MORPH_CLOSE,sqKernel)
#再来一个闭操作 .........
cv_show('thresh',thresh)
#计算轮廓
thresh_,threshCnts, hierarchy= cv2.findContours(thresh.copy(),cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
cnts=threshCnts cur_img=image.copy()
cv2.drawContours(cur_img,cnts,-1,(0,0,255),3) cv_show('img',cur_img)
locs=[] #遍历轮廓
for (i, c) in enumerate(cnts): #计算矩形
(x,y,w,h)=cv2.boundingRect(c) ar=w/float(h)
#选择合适的区域,根据实际任务来,这里的基本都是四个数字一组if ar > 2.5 and ar < 4.0:
if (w > 40 and w < 55) and (h> 10 and h<20): #符合的留下来cv2.rectangle(img, (x, y), (x+w, y+h), (0, 0, 255), 2)
locs.append((x,y,w,h))#将符合的轮廓从左到右排序
locs=sorted(locs,key=lambda x:x[0]) output=[]
#遍历每一个轮廓中的数字
for (i,(gx, gY,gW, gH)) in enumerate(locs): # initialize the list of group digits groupOutput=[]
#根据坐标提取每一个组
group = gray[gY - 5:gY +gH + 5, gX - 5:gx + g +5] cv_show('group',group)
#预处理
group= cv2.threshold(group,0,255,
cv2.THRESH_BINARY | cv2.THRESH_OTSU)[1] cv_show('group',group)
#计算每一组的轮廓
#就是先找一个大轮廓再找小轮廓,是因为直接找数字干扰太多了
group_,digitCnts,hierarchy=cv2.findContours(group.copy(),cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
digitCnts = contours.sort_contours(digitCnts, method="Left-to-right")[0]
#计算每一组中的每一个政值for c in digitCnts:
#找到当前数值的轮廓,resize成合适的的大小
(x,y,w,h)=cv2.boundingRect(c) roi=group[y:y+h,x:x+w] roi=cv2.resize(roi,(57,88)) cv_show('roi',roi)
#计算匹配得分
scores = []
#在模板中计算每一个得分
for(digit,digitRoI)indigits.items):
#模板匹配
result=cv2.matchTemplate(roi,digitRoI, cv2.TM_CCOEFF (_,score,_,_)=cv2.minMaxLoc(result) scores.append(score)
#得到最合适的数字
groupoutput.append(str(np.argmax(scores)))
#计算匹配得分
scores = []
#在模板中计算每一个得分 for(digit,digitRoI)indigits.items):
#模板匹配
result=cv2.matchTemplate(roi,digitRoI, Cv2.TM_CCOEFF (_,score,_,_)=cv2.minMaxLoc(result) scores.append(score)
#得到最合适的数字
groupoutput.append(str(np.argmax(scores)))
cv2. rectangle(image, (gx - 5, gy 5),
(gX + gW + 5, gY + gH + 5), (0, 0, 255), 1)
cv2. putText(image, "''-join(groupOutput), (gx, gY - 15),
CV2. FONT _HERSHEY_SIMPLEX, 0.65, (0, 0, 255), 2)
# 105031194
output. extend (groupOutput)
#TEA: 44
r print ("Credit Card Type: (3". format(FIRST _NUMBER [output [®]1))
print ( "Credit Card #: (3". format(""•join(output) ))
cv2. imshow( "Image", image)
cv2. waitKey (0)
上一个视频里为社么要返回第二个参数 因为第二个参数是图像呀
py3里面好像是只返回两个参数了,contours和hierarchy
把最外面轮廓也阔了,是因为二值化的时候没用_INV
因为原图材料很规则,你甚至可以直接用坐标来切出数字区域
归一化之后的图片细节更多~~直接用以前的convertScaleabs函数,已经包含了求绝对值、归一化、转uint8
可以直接Google credit card ocr with opencv and python,里面的内容和视频里的一样,而且有很详细的解释
#另外写一个函数myutils
这里myutil报错的话要换成imutils.contours//是imutils.contours.sort_contours
sort函数自己再写个cmp就行了,不用这么复杂
zip这个函数没有细讲,其中还涉及到匿名函数
这里是python的基础语法了,不会的去搜python函数就行了
不懂boundingBoxes是啥的可以回去看轮廓检测那一节,求外接矩形也用了这个函数
因篇幅问题不能全部显示,请点此查看更多更全内容