中國人臉識別第一案來了,我們來談談國外法規和隱私保護技術
- 2019 年 11 月 13 日
- 筆記
以下文章來源於數據派THU,作者數據派
導讀:近日,浙江理工大學特聘副教授郭兵起訴杭州野生動物世界年卡系統採集人臉,已被杭州市富陽區人民法院正式受理。此案被稱為「中國人臉識別第一案」。一直被忽視的互聯網隱私終於被慢慢地重視起來。
來源:數據派THU(ID:DatapiTHU)

01 屢次被推上輿論風口浪尖的人臉識別事件
最近,又發生了兩起關於人臉識別的熱議事件。
一是杭州野生動物世界「為了方便消費者快速入園」,在今年 10 月將年卡系統從「指紋入園」升級為「人臉識別入園」,被消費者起訴。起訴者是浙江理工大學特聘副教授郭兵,他在五個月前辦理了年卡,郭兵認為:
園區升級後的年卡系統進行人臉識別將收集他的面部特徵等個人生物識別資訊,該類資訊屬於個人敏感資訊,一旦泄露、非法提供或者濫用,將極易危害包括原告在內的消費者人身和財產安全。
於是在 2019 年 10 月 28 日,他向杭州市富陽區人民法院提起了訴訟,目前杭州市富陽區人民法院已正式受理此案。這也是面部識別技術被推廣以來,首例訴諸法庭的案件,被稱為「中國人臉識別第一案」。這個事件引起了大眾對於個人隱私權的重視,也引起了人們對於相關技術法律監管的思考。
另一件是關於地鐵安檢的人臉識別應用。在 10 月 29、30 日舉辦的「2019年城市軌道交通運營發展論壇」上,北京地鐵和北京市軌道交通指揮中心相關負責人表示,未來北京將建立地鐵「白名單」及快速安檢通道制度,並應用人臉識別技術,實現乘客分類安檢。
隨後,清華大學法學教授勞東燕在其公眾號發文稱,有必要對人臉識別進行法律規制。勞東燕主闡述了四點原因:
- 一是人臉是重要的個人生物數據,相關機構或組織在收集之前需證明合法性;
- 二是推行該項技術需徵求公眾意見,經過嚴格的聽證過程;
- 三是分類標準本身的合理性和合法性就存疑;
- 四是尚未有證據證明人臉識別技術的通行效率確實更高。
從今年9月被瘋狂刷屏,隨後又迅速隕落的換臉app Zao;到開學季曠世科技將人臉識別技術引入課堂監控學生上課狀態、引起網友質疑;再到小學生在實驗中發現使用一張面部列印照片就能破解豐巢智慧櫃的「刷臉取件」功能;最後到「中國人臉識別第一案」和相關專家呼籲對人臉識別進行法律規制,關於人臉識別隱患的討論,在這個2019年的秋季集中爆發。
從這幾件事的輿論反噬之快,我們可以清晰地感受到,在經過了互聯網大佬關於中國用戶樂意以隱私換便利言論的洗禮,蘋果、Google、亞馬遜相繼承認監聽用戶談話的風波後,一直被忽視的互聯網隱私終於被慢慢地重視起來。

02 你的臉正在成為不法分子的生意
換做五年前,人們或許不會對自己的人臉資訊如此敏感。但在人臉識別被用於電子支付、身份認證的今天,臉甚至變得比金錢、身份證都更為重要。現在,上傳一張正臉照片,而且無濾鏡無PS,或者自己的人臉資訊被數據採集公司泄漏,任何人都會擔憂因此導致的風險。
此前,在大家紛紛擔心換臉軟體可能會導致支付密碼被破解時,螞蟻金服官方聲稱,目前網上各類換臉軟體無法突破刷臉支付,因為「刷臉支付」採用的是3D人臉識別技術,會通過軟硬體結合的方式進行檢測,來判斷採集到的人臉是否是照片、影片或者軟體模擬生成的,能有效地避免各種人臉偽造帶來的身份冒用情況。
但是,在今年8月,支付寶剛剛宣布投資3億普及刷臉技術後,就有人發布了一個測試影片,在影片中,工作人員使用3D列印製作的蠟像人頭,騙過支付寶的人臉識別系統,成功買到了一張火車票。

無獨有偶,此前福布斯記者Thomas Brewster也發布文章介紹過3D列印頭型能夠成功騙過智慧手機人臉識別的過程。他列印出了自己的3D頭型,然後對5款手機的人臉識別功能進行解鎖測試,其中竟然有4款都淪陷了。
人體資訊被泄漏除了可能導致財產損失外,還有可能導致「被貸款」。據媒體報道,目前不少網貸機構進行「活體檢測」時仍使用人工審核或技術含量偏低的機器審核,一旦公眾的面部識別資訊被不法分子掌握,用這些黑科技「活」過來的面孔,很可能以假亂真,讓不知情者「被網貸」背上巨額債務。今年的「3·15」晚會上就有人演示用「活」照片成功突破某款手機的「刷臉」登陸系統。
另外還有個風險,就是被色情行業濫用所造成的名譽損失。目前,中國外很多女星都深受其害。此前deepfakes這種原本門檻不低的技術流舉動,被一些別有用心的高手升級之後推出了平民版本 「Fake App」,號稱人人可用,於是很多女明星都被隨意換臉到色情片女主角身上。
在中國,女星們也有相同的遭遇。曾有媒體報道閑魚APP上也有多位賣家通過AI換臉技術製作出當紅女明星的不雅影片,進行售賣。據了解,目前利用AI換臉技術從成品情色影片、訂製影片到軟體及教程,整個產業鏈從下、中、上游都有廠商提供,有的廠商甚至從研發、訂製、包裝等提供一條龍服務。
除此之外,敲詐和詐騙也需要警惕。據《華爾街日報》報道,今年3月份,有犯罪分子使用AI技術成功模仿了英國某能源公司在德國的其母公司CEO的聲音,詐騙了220,000歐元(約1,730,806人民幣)。在未來,如果類似騙術結合換臉影片,詐騙的成功率恐怕會更高。
以上人臉資訊被濫用所造成的損失,並非危言聳聽。這也難怪大眾對於人臉識別技術的使用愈發敏感、較真。從抗議人臉識別濫用,到呼籲相關法律法規建設也是必然。

03 關於人臉識別的法律法規該如何制定
很多人希望,這次「中國人臉識別第一案」能夠倒逼立法立規,對以法律制度規範「人臉識別」技術使用產生警示、推動效應。事實上,關於人臉識別技術的相關法律制定,中國相關部門並非沒有在行動。
1. 中國相關法律法規
今年4月全國人大常委會審議的《民法典人格權編(草案)》里,正式加了一條:任何組織和個人不得以利用資訊技術手段偽造的方式侵害他人的肖像權。
5月,國家網信辦會同有關部門發布《數據安全管理辦法(徵求意見稿)》,其中表示,網路運營者不得以謀取利益或損害他人利益為目的利用大數據、人工智慧等技術自動合成資訊。
此外,今年以來,多項重磅資訊安全政策落地,包括網路安全等級保護制度2.0、史上最嚴的數據安全監管辦法等。
9月,當國務院新聞辦公室就第六屆世界互聯網大會有關情況及籌備工作進展舉行新聞發布會並答記者問時,有記者提出了如何解決「AI換臉技術涉嫌侵犯個人隱私」 的問題。
國家互聯網資訊辦公室副主任劉烈宏就表示,網信辦已經會同有關部門制定出台了《具有輿論屬性或社會動員能力的互聯網資訊服務安全評估規定》《個人資訊安全規範》等法規標準,正在制定《網路生態治理規定》,目前在徵求意見。通過這些法規、標準,指導督促互聯網企業進行安全評估,監管新上線的新技術、新應用。同時,組織開展了App違法收集個人資訊的專項清理行動,維護用戶的合法權益。
不過,更多人肯定是希望能夠有專門針對人臉識別的規範條例。雖然中國《網路安全法》明確將個人生物識別資訊納入個人資訊範圍,但對於資訊的使用、存儲、運輸、管理仍需進一步細化。
很多人就此呼籲,相關部門應組織專家學者,對人臉識別技術在現實運用中的安全隱患、隱私風險等予以評估,建立行業標準和國家標準;探討相應監管制度甚至立法,規範人臉識別的資訊採集與運用程式、隱私邊界。
比如,哪些領域可運用人臉識別、哪些不能運用,該如何保障公眾的知情權、選擇權、同意權與資訊安全,若有資訊泄露如何懲處與應對。
對此,我們可以參考國際上的相關法律條例。

2. 國際相關法律法規
國際層面對人臉識別技術的規制主要通過數據保護法律法規進行的。
- 美國
以美國為例,美國在聯邦層面沒有統一的法律規制人臉識別數據的收集和使用,而是通過各州的獨立立法進行管理。目前共有六個州或城市制定了與生物識別數據相關的法案,分別為伊利諾伊州、華盛頓州、德克薩斯州和俄勒岡州和新漢普郡以及加利福尼亞州舊金山市。
其中,伊利諾伊州頒布的《生物資訊隱私法案》(Biometric Information Privacy Act, 簡稱「BIPA」)非常具有參考意義。該法案於2008年頒布,是美國境內第一部旨在規範「生物標識符和資訊的收集,使用,保護,處理,存儲,保留和銷毀」的法律。
根據BIPA的定義,「生物標識符」(biometric identifier)包括對「臉部結構」的掃描,但明確排除了照片。與「生物標識符」相關的術語是「生物資訊」(biometric information),該等資訊是指「通過用以識別特定自然人的生物標識符所獲取的資訊」。BIPA規制的範圍並不在於能否使用生物識別數據,而在於使用生物數據的方式,具體體現在以下三個方面:
- 初次收集某自然人的生物標識符或生物識別資訊時,須告知該自然人其生物數據被收集的情況、收集目的、數據的保留時間,並獲得該自然人的書面授權。Facebook的「面部印記」功能遭到起訴便是因為Facebook未經用戶同意便收集了面部結構數據,進而違反了BIPA。
- 企業須制定書面政策設定生物識別數據的保留時間表,且當收集數據的目的已達到或距資訊主體與企業最後一次聯絡已滿三年時(以先發生者為準),應當摧毀該數據。
- 生物識別數據不得出售,且除非獲得相關自然人的同意或如法律規定的特定例外情況不得對他人披露。
- 歐盟
而歐盟的保護人臉識別數據的核心法律,就是此前讓無數企業聞風喪膽的、史上最嚴的《通用數據保護法規》(General Data Protection Regulation, 簡稱「GDPR」)。

根據GDPR第4(14)條的定義,生物識別數據明確包括面部影像。不過,照片另當別論。GDPR敘文第51條指出:處理照片並不當然地被認為是處理個人敏感數據。僅在通過特定技術方法對照片進行處理,使其能夠識別或認證特定自然人時,照片才被認為是生物識別數據。
此外,GDPR並未提及影片影像,例如被監控攝影機收集的影片影像,但應當類推適用相同的原則進行處理。即如果使用「特定技術手段」來識別或認證特定自然人,則通過照片或影片收集的任何影像均構成生物識別數據。
GDPR第9條規定,生物特徵數據屬於個人數據的「特殊類別」,除非某些特殊情況外,不得處理該等數據。人臉識別技術的商業應用可適用的唯一例外是「數據主體已明確表示同意」,同意須「自由給予、明確、具體、不含混」,數據主體任何形式的被動同意均不符合GDPR的規定。
此外,GDPR第9(4)條允許歐盟各成員國規定在特定情況下不適用GDPR中對處理生物識別的數據的限制。例如,荷蘭規定了為完成認證或安全需要時可以處理生物識別數據。克羅埃西亞的新數據保護法對生物識別數據的限制排除適用監控安全系統。
由此可以看出,國際上對於人臉識別數據的使用規範相當嚴苛,甚至很多城市開始公開抵制人臉識別被用於政府部門。
西雅圖、奧克蘭和馬薩諸塞州劍橋通過的監控條例要求每個市政部門在獲得任何監控技術之前舉行公開會議並獲得市議會的批准。今年五月,舊金山通過了全面禁止市政府使用面部識別技術的禁令,同時還規定,購買任何類似的新監控設備,如自動識別車牌號系統、帶有攝像機的無人機等,都需要得到市政府的許可。
在舊金山這項禁令提出之後,美國的其他州也陸續推出類似的法令。隨後全美國開始推進相關的工作,以規範生物識別技術的使用,包括面部識別和其他基於人體的生物識別方法,如指紋識別。
如今,人臉識別技術被認為是全球「智慧城市」浪潮的一部分,在市場上廣受歡迎,而另一方面,人們對它的擔憂,也隨著人臉識別技術被濫用而愈來愈深。我們沒有人想當仇視技術的勒德主義者,而是希望能將科學技術裝進道德與法律的牢籠中,使其在我們可控的範圍內發揮作用。
如何能控制技術,除了讓相關政策法規予以規範,掌握核心技術的科技巨頭也責無旁貸。

04 從技術層面如何對抗人臉被濫用?
1. 研發「反換臉」檢測技術
今年9月,Facebook宣布將提供可開啟或關閉人臉識別功能的切換按鈕。如果用戶禁用人臉識別,Facebook就會停止在影像上自動標記該用戶,同時停止建議其他人在影像上標記。
並且,Facebook首席技術官Mike Schroepfer發布部落格宣布,公司正和微軟聯合來自麻省理工、牛津等大學的研究者,通過置辦「Deepfakes鑒別挑戰賽」,探索如何通過數據集和基準測試檢測Deepfake換臉影片。
據了解,「Deepfake鑒別挑戰賽」的目標是,找到一款能檢測影片是否被換過臉的工具,並且它能被每個人便捷操作。同時,臉書還會從數據集、經費、獎金等多方面支援「Deepfake鑒別挑戰賽」,以鼓勵更多人參與。據稱,臉書會為此投入1000多萬美元。
美國加州的一家創業公司Truepic也正致力於解決AI換臉被濫用的問題:該公司能提供基於移動應用程式的影像驗證服務,通過其應用拍攝的照片會被分析,添加水印網址、位置、保存影像的副本等,並支援查詢驗證,以確保它們真實可靠。

▲用Truepic拍攝的照片(圖片來源:TechCrunch)
當Truepic的iOS和Android應用程式(或者在嵌入其SDK的應用程式)中捕捉到照片時,Truepic會驗證捕捉的影像是否已經被更改,並用時間戳、地理編碼、URL和其他元數據對其添加水印。Truepic的安全伺服器會存儲該影像的一個版本,並分配一個六位數的程式碼和URL,在區塊鏈上添加一個記錄。
用戶可以將他們的Truepic影像或驗證鏈接發布到應用程式中,以證明他們的影像是真實的。查看者可以訪問影像上的水印URL,將其與Truepic庫中保存的版本進行比較,以確保其真實性以及未被修改過。目前,Truepic正在與高通公司合作,將其技術添加到手機硬體組件中。
採取同樣行動的還有英國社交網站 Serelay 。該公司創建了針對照片和影片的類似 Twitter 的賬戶驗證系統,在照片被拍攝時將照片打上「正版」的標記。當拍攝照片或影片時,Serelay 可以捕捉到相機與手機訊號塔或 GPS 衛星之間的關係等數據。
與此同時,美國國防部也在研究一項名為forensic的影像鑒定技術。他們的思路是尋找圖片和影片中的不一致性,例如不一致的燈光、陰影和相機噪音。
對於複雜的deepfakes檢測,還需要其他的驗證方法,比如點捕捉法,通過觀察面部表情和頭部運動的不一致性發現篡改的證據。而且,他們試圖將鑒證自動化,讓電腦演算法來檢測。目前,這種取證方法可以應用於數十年前的照片和影片,以及最近用智慧手機或數位相機拍攝的照片和影片。
負責美國國防部高級研究計劃局(Darpa)媒體取證項目的馬特·塔瑞克(Matt Turek)認為,製造deepfakes的人一直在不斷地適應各種檢測技術,因此不會存在一個一招制敵的演算法或技術解決方案,而是需要一套全局性的方案,因此,無論是主動給圖片添加水印還是通過「找茬」來辨別真偽,都是解決 Deepfake 造假問題的必要手段。

2. 從AI安全的本質出發,修復AI技術應用潛在的風險
也有企業嘗試從安全對抗的本質上出發,鑄造更高門檻的防禦技術,以AI應對AI。
例如孵化自清華大學人工智慧研究院的RealAI團隊就宣稱,由於Deepfake生成的造假影片畫面會有不「自然」的紋理存在,他們通過海量影片訓練神經網路,讓其學習正常情況中的紋理特徵,再以此檢測造假影片中不一致的紋理。利用該技術,可以對造假影片實現逐幀檢測,準確率高達90%以上。
而加州大學河濱分校的學者也提出了檢測 Deepfake 偽造影像的新演算法。同樣的,演算法的一個組成部分是各種「遞歸神經網路」,它能將有問題的影像分割成小塊,然後逐像素觀察這些小塊。神經網路經過訓練可以檢測出數千幅 Deepfake 影像,它找到了贗品在單像素水平上的一些特質。
而演算法的另一部分是通過一系列編碼濾波器傳遞整個影像。這些濾波器使演算法能夠在更大、更全面的層次上考慮整個影像。然後,該演算法將逐像素的輸出結果與更高層次的編碼濾波器分析結果進行比較。當這些並行分析在影像的同一區域觸發示警訊號時,它就會被標記為可能為 Deepfake 偽造品。
目前,這種演算法能識別未經修改的影像和單像素級影像里的假影像,鑒定準確率在 71% 到 95% 之間,具體鑒定情況取決於使用的樣本數據集,但該演算法還未擴展到對 Deepfake 偽造影片的檢測。接下來,該團隊將會擴展演算法以檢測 Deepfake 影片。其中包括影像如何逐幀變化,以及能否從變化中識別出可檢測的模式。
另外, Deepfakes 影片最主要的素材來源平台、GIF 動圖和短影片共享網站 Gfycat也基於平台上 GIF 搜索數據和工具,訓練了兩個 AI 模型,一個取名 Project Angora,以一種長毛貓命名;另一個叫 Project Maru,源於一種短毛貓。
功能上,長毛貓Angora 記憶力好、動手能力強,可以快速找到換臉影片的原版本,或者是不同版本。而短毛貓 Maru 則嗅覺敏銳、火眼金睛。它可以彌補長毛貓 Angora 的不足。
比如一些全新的沒被標註過的內容,長毛貓 Angora 就不知如何下爪,但短毛貓 Maru 會區分、能標註。另外,如果短毛貓 Maru 識別到這個素材中主角跟某個名人很像,它會一幀幀掃 「臉」,看是否有詐——畢竟再完美的換臉造假,也很難在每一幀里達到天衣無縫。
不過,這兩個AI演算法只能打假,不能反性。因此,如果這兩個演算法面對的是全網獨家的影片,那就無能為力了。為了解決AI演算法無法解決的情況,Gfycat 還僱傭了一些人類員工作為複核,另外還使用了共享位置、上傳位置等數據,去協助判斷是否包含惡意偽造。
正如安全專家們所說,數據沒有百分百的安全,只能做到百分百防禦。網路安全是一場持續的的軍備競賽,必然會呈現攻防互相促進發展的狀態。因此,人們不應該過度依賴這些被驗證為高準確率的演算法,因為一個過度可信的檢測演算法也能被試圖傳播虛假資訊的人武器化。

3. 用區塊鏈技術鑒別假圖片和假影片
能夠用技術來解決技術問題的,不只有AI,區塊鏈技術同樣也能解決假圖片問題。
今年7月,擁有百年歷史的知名媒體《紐約時報》宣布將利用區塊鏈技術來打擊假新聞,並公布了正在研發的區塊鏈項目「新聞出處追溯」。該項目是一個基於超級賬本的區塊鏈網路,由《紐約時報》和IBM Garage部門合作開發,用來創建和共享新聞圖片的「元數據」。
「元數據」包含新聞圖片的拍攝時間、地點、拍攝者以及所有編輯和發布資訊。通過這些資訊,媒體和用戶可以判斷出該圖片是否經過PS等人為修飾,進而判斷相關資訊真偽。
除了鑒別假圖片,區塊鏈技術還能鑒別假影片。比如區塊鏈影片應用可以採用安全防盜鏈機制(包括動態密鑰、在內容中插入哈希校驗、在URL中加入動態哈希值、時間戳防盜鏈、流媒體防盜鏈等),就能保證影片在直播或點播時,能夠快速響應,並防止盜鏈訪問。
今年5月,阿里巴巴集團平台治理部就宣布將引入區塊鏈技術升級知產保護體系,並計劃今年9月區塊鏈技術率先在阿里原創保護計劃中使用,並逐步拓展到圖片、音影片等數位版權保護領域。
小結
以上是目前中國外從媒體平台到安全專家、從企業到高校、來自不同行業的技術人才在防止圖片數據濫用、影片造假等方面作出的嘗試。事實上,在這個在這場龍爭虎鬥的AI攻防實戰中,好人和壞人都在不斷進步,保證技術不濫用、設立合理的法律法規才是規範市場、促進技術發展的最有效方法。
對人臉識別技術,我們既要充滿信心,用開放、包容的態度來看待其中不盡完善的地方,也要保持理性、審慎的姿態應對「刷臉」時代的到來,實現「刷臉」不「變臉」。
在這個「沒有秘密」的時代,儘管我們無法左右數據革新浪潮,但是我們是時候對臉部數據的收集和使用抱以警惕之心,應該更加謹慎地去維護屬於我們的合法隱私權益。
面對人臉資訊被濫用的現狀,問題的解決不能只寄望於普通網民自身提高辨別能力和網路安全意識,畢竟大眾媒介素養的培養並非一朝一夕之功。那麼,行業自律的緊箍咒應該更強,外部監管也應該走在更前,共同堵住漏洞,才能防患於未然。