國外研究發現面部識別系統存在種族偏見
- 2019 年 12 月 24 日
- 筆記
編輯 | TGS 發佈 | ATYUN訂閱號

最近美國政府發佈的一項研究顯示,許多面部識別系統,相較於白人來說,更容易識別出有色人種,這可能會增加人們對執法機構廣泛使用的技術的懷疑。這項由美國國家標準與技術研究所(NIST)進行的研究發現,在進行一種被稱為「一對一」匹配的特定類型的數據庫搜索時,許多面部識別算法錯誤地識別非裔美國人和亞洲人面孔的頻率是白人面孔的10到100倍。該研究還發現,非裔美國女性更容易在「一對多」配對中被錯誤識別,在刑事調查中會產生嚴重後果。
儘管一些公司淡化了早期技術上的偏見,但NIST本次的研究卻證明,面部匹配也很難跨越人口統計數據。算法正義聯盟的創始人喬伊•布拉姆維尼稱,這份報告是對人工智能偏見不再是問題的「全面反駁」。這項研究是在美國對這項技術越來越不滿的時候進行的,批評人士警告說,這項技術可能會導致不公正的騷擾或逮捕。
在這份報告中,NIST測試了來自99家開發商的189種算法,不包括亞馬遜等沒有提交算法供審查的公司。它測試的內容不同於公司銷售的內容,因為NIST研究的是脫離雲計算和專有培訓數據的算法。

報告稱,中國的商湯是一家估值超過75億美元的人工智能初創企業,在NIST的一次測試中,該公司「所有比較的誤匹配率都很高」。商湯的算法在查看索馬里男性的照片時,產生錯誤的幾率超過10%。如果部署在機場,這將意味着一個索馬里人有十分之一的可能,用其他人的護照通過海關檢查。
相應的,另一家來自中國的人工智能初創企業依圖(Yitu)的數據則更準確,幾乎沒有種族偏見。在一對多的測試中,某些情況下,有色人種女性的誤報率,幾乎是有色人種男性的10倍。在一對多的相關測試中,它的算法只對黑人和白人男性的照片顯示出很小的差異。
微軟表示正在審查這份報告,目前沒有發表評論。美國眾議院國土安全委員會主席、國會議員本尼表示稱:「鑒於這種令人震驚的結果,政府必須重新評估面部識別技術的計劃。」