人工智能opencv 使用深度学习进行人脸性别的检测
前期的文章我们分享了人脸的识别以及如何进行人脸数据的训练,本期文章我们结合人脸识别的
模型进行人脸性别的检测
人脸性别的检测步骤
1、首先需要进行人脸的检测
2、把检测到的人脸数据给性别检测模型去检测
3、把检测结果呈现到图片上
import numpy as np
import cv2
import os
genderList = ['Male', 'Female']
prototxtFacePath = "model/deploy.prototxt"
weightsFacePath = "model/res10_300x300_ssd_iter_140000.caffemodel"
faceNet = cv2.dnn.readNet(prototxtFacePath, weightsFacePath)
prototxtGenderPath = "model/deploy_gender.prototxt"
weightsGenderPath = "model/gender_net.caffemodel"
genderNet = cv2.dnn.readNet(prototxtGenderPath, weightsGenderPath)
初始化模型性别,当然你也可以使用大量的数据,进行更准确的模型训练
然后cv2.dnn.readNet加载人脸识别的模型,可参考往期文章
顺便在这里介绍一下由人工智能研究所出品的专栏,人工智能目标检测与目标追踪
最后cv2.dnn.readNet加载人脸年龄的模型
image = cv2.imread("image/img.jpg")
(h, w) = image.shape[:2]
blob = cv2.dnn.blobFromImage(image, 1.0, (300, 300),
(104.0, 177.0, 123.0))
faceNet.setInput(blob)
detections = faceNet.forward()
使用cv2.imread来读取要检测的图片
image.shape来获取图片的尺寸
cv2.dnn.blobFromImage来计算图片的blob值
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size, mean, swapRB=True,crop=False,ddepth = CV_32F )
1.image,这是传入的,需要进行处理的图像。
2.scalefactor,执行完减均值后,需要缩放图像,默认是1,需要注意,scalefactor = 1 / \sigma,这是真正乘上的值。
3.size,这是神经网络,真正支持输入的值。
4.mean,这是我们要减去的均值,可以是R,G,B均值三元组,或者是一个值,每个通道都减这值。如果执行减均值,通道顺序是R、G、B。 如果,输入图像通道顺序是B、G、R,那么请确保swapRB = True,交换通道。
5.swapRB,OpenCV认为图像 通道顺序是B、G、R,而减均值时顺序是R、G、B,为了解决这个矛盾,设置swapRB=True即可。
6.crop,如果crop裁剪为真,则调整输入图像的大小,使调整大小后的一侧等于相应的尺寸,另一侧等于或大于。然后,从中心进行裁剪。如果“裁剪”为“假”,则直接调整大小而不进行裁剪并保留纵横比。
7.ddepth, 输出blob的深度,选择CV_32F or CV_8U
cv2.dnn.blobFromImage这个函数执行:
1.减均值
2.缩放
3.通道交换
等工作,主要对图片进行预处理,以便神经网络的学习分类
最后把图片的blob值放入神经网络,进行人脸性别的预测
for i in range(0, detections.shape[2]):
confidence = detections[0, 0, i, 2]
if confidence > 0.5:
box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])
(startX, startY, endX, endY) = box.astype("int")
face = image[startY:endY, startX:endX]
faceBlob = cv2.dnn.blobFromImage(face, 1.0, (227, 227),(78.4263377603, 87.7689143744, 114.895847746),swapRB=False)
genderNet.setInput(faceBlob)
preds = genderNet.forward()
i = preds[0].argmax()
gender = genderList[i]
genderConfidence = preds[0][i]
text = "{}: {:.2f}%".format(gender, genderConfidence * 100)
y = startY - 10 if startY - 10 > 10 else startY + 10
cv2.rectangle(image, (startX, startY), (endX, endY),(0, 0, 255), 2)
cv2.putText(image, text, (startX, y),cv2.FONT_HERSHEY_SIMPLEX, 0.45, (0, 0, 255), 2)
detections.shape[2]来存放神经网络检测到的人脸,通过遍历这个list
来获取每个人脸的置信度,当置信度大于0.5时,我们认为是一个合格的人脸
startX, startY, endX, endY来获取人脸在图片中的坐标
有了人脸的坐标就可以把人脸这部分单独提出来来计算人脸图片的blob值
把人脸blob值放入性别检测模型中进行人脸性别的检测preds
preds[0].argmax把性别每个概率进行对比,并提取最大概率的性别的index
gender = genderList[i]便可以得到我们检测的人脸性别
genderConfidence = preds[0][i] 人脸性别的检测置信度
最后把检测到的数据呈现到图片上并显示图片
cv2.imshow("Image", image)
cv2.waitKey(0)