總結幾個簡單好用的Python人臉識別演算法
哈嘍,大家好。
今天給大家總結幾個簡單、好用的人臉識別演算法。 人臉識別是電腦視覺中比較常見的技術,生活中,我們接觸最多的人臉識別場景是人臉考勤,我之前還專門寫過一篇人臉考勤的項目,感興趣的朋友可以看看。
人臉識別的演算法最核心的工作是從一張圖片中識別出人臉的位置。識別的演算法可以說是多種多樣, 下面我就來為大家一一介紹下。
1. HoG人臉檢測
該演算法採用傳統的機器學習演算法來識別人臉。傳統機器學習演算法的特點是人工構造特徵,然後將構造好的特徵送入模型訓練。
該演算法用HoG
提取圖片中人臉特徵,用SVM
演算法進行分類。
HoG
(Histogram of Oriented Gradient, 方向梯度直方圖)特徵是一種在電腦視覺和影像處理中用來進行物體檢測的特徵描述子,通過計算和統計影像局部區域的梯度方向直方圖來構成特徵。
dlib
庫中有該演算法的實現,下面我們看看核心程式碼
import dlib
# 載入預訓練的 HoG 人臉檢測器
hog_face_detector = dlib.get_frontal_face_detector()
# 對圖片進行人臉檢測
results = hog_face_detector(imgRGB, 0)
for bbox in results:
x1 = bbox.left() # 人臉左上角x坐標
y1 = bbox.top() # 人臉左上角y坐標
x2 = bbox.right() # 人臉右下角x坐標
y2 = bbox.bottom() # 人臉右下角y坐標
results
存放一張圖中檢測出來的多個人臉, 遍歷results
可以得到每張人臉的矩形框。
檢測示例如下:
綠框框出來的就是演算法檢測出來的人臉。
HoG 人臉檢測由於採用傳統機器學習演算法,所以性能比較高,在CPU上運行也可以比較快。但它無法檢測小於 80*80 的人臉,對旋轉人臉、非正面人臉,識別效果也不太好。
2. 深度學習人臉檢測
雖然傳統機器學習演算法檢測更快,但準確度卻有待提升。基於深度學習的人臉檢測演算法往往會更加準確。
這裡介紹的是使用殘差網路ResNet-10
通過網路(模型)在影像的單通道( Single Shot Detector,SSD)中檢測多個人臉。簡稱SSD
演算法。
首先,需要將原始圖片進行blob
預處理,然後直接送入模型,進行檢測
cv2
庫提供了該演算法的實現,核心程式碼如下:
import cv2
# 載入預訓練的 SSD 模型
opencv_dnn_model = cv2.dnn.readNetFromCaffe(
prototxt="models/deploy.prototxt"
, caffeModel="models/res10_300x300_ssd_iter_140000_fp16.caffemodel")
# 原始圖片 blob 處理
preprocessed_image = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(300, 300), mean=(104.0, 117.0, 123.0), swapRB=False, crop=False)
# blob 圖片送入模型
opencv_dnn_model.setInput(preprocessed_image)
# 模型推理,進行人臉檢測
results = opencv_dnn_model.forward()
# 遍歷人臉
for face in results[0][0]:
# 置信度
face_confidence = face[2]
# 人臉邊框的左上角和右下角坐標點
x1 = int(bbox[0] * image_width)
y1 = int(bbox[1] * image_height)
x2 = int(bbox[2] * image_width)
y2 = int(bbox[3] * image_height)
results[0][0]
存放了檢測出來的多張人臉,每張人臉用數組表達,數組的第3位存放置信度,可以通過閾值過濾不置信的人臉。數組的第4~7位存放檢測出來的人臉矩形框左上角和右下角的坐標。
相比於 HoG
人臉檢測,SSD
演算法對遮擋、非正面人臉也能檢測出來。
3. 卷積神經網路人臉檢測
卷積就不多說了,了解電腦視覺的都知道。
dlib
庫提供了卷積神經網路人臉檢測演算法的實現,用法跟之前類似
import dlib
# 記載預訓練模型
cnn_face_detector = dlib.cnn_face_detection_model_v1("models/mmod_human_face_detector.dat")
# 人臉檢測
results = cnn_face_detector(imgRGB, 0)
# 遍歷每張人臉
for face in results:
# 人臉邊框
bbox = face.rect
# 人臉邊框的左上角和右下角坐標點
x1 = int(bbox.left() * (width/new_width))
y1 = int(bbox.top() * (height/new_height))
x2 = int(bbox.right() * (width/new_width))
y2 = int(bbox.bottom() * (height/new_height))
results
的解析跟上面類似,這裡就不在贅述了。
採用卷積神經網路的人臉檢測演算法優勢很明顯,比前兩個更準確和健壯,並且還能夠檢測遮擋下的人臉。
即便非正面、且光線暗的圖片,也能很好檢測出來
但該演算法相應的缺點也很明顯,檢測過程所花費的時間非常長,無法在 CPU 上實時運行。
4. BlazeFace
上面的演算法要麼精度高、速度慢,要麼速度快,精度低。那有沒有一種檢測演算法,既有高準確率,又有高性能呢?
答案是肯定的,BlazeFace
是一種非常輕量級且高度準確的人臉檢測器,號稱亞毫秒級的人臉檢測器。其靈感來自 Single Shot MultiBox Detector (SSD)
和 MobileNetv2
。
Mediapipe
庫提供了該演算法的實現,核心程式碼如下:
import mediapipe as mp
# 畫圖工具
mp_drawing = mp.solutions.drawing_utils
# 初始化人臉檢測模型
mp_face_detection = mp.solutions.face_detection
mp_face_detector = mp_face_detection.FaceDetection(min_detection_confidence=0.4)
results = mp_face_detector.process(imgRGB)
if results.detections:
# 變臉檢測出的人臉
for face_no, face in enumerate(results.detections):
# 畫人臉關鍵點
mp_drawing.draw_detection(image=output_image, detection=face, keypoint_drawing_spec=mp_drawing.DrawingSpec(color=(0,255,0),thickness=-1, circle_radius=image_width//115), bbox_drawing_spec=mp_drawing.DrawingSpec(color=(0,255,0),thickness=image_width//180))
# 畫人臉框
face_bbox = face.location_data.relative_bounding_box
x1 = int(face_bbox.xmin*image_width)
y1 = int(face_bbox.ymin*image_height)
cv2.rectangle(output_image, pt1=(x1, y1-image_width//20), pt2=(x1+image_width//16, y1), color=(0, 255, 0), thickness=-1)
效果如下:
可以看到,BlazeFace
演算法不光能檢測人臉,還能識別出人臉6個關鍵點(眼睛、鼻子、耳朵、嘴)。
上面就是今天分享的4個人臉識別的演算法。
識別出人臉,我們再做人臉考勤就非常簡單了,把人臉Embedding
成向量,計算向量的之間的距離即可。
後續我會持續分享優秀的 Python+AI 項目。
參考資料://bleedai.com/5-easy-effective-face-detection-algorithms-in-python/
關注公眾號 渡碼