新型AI面部識別技術進一步發展
- 2020 年 2 月 11 日
- 筆記
但到目前為止,還是有限制因素,這些工具被八種所謂的核心狀態所限制——憤怒、輕蔑、恐懼、厭惡、快樂、悲傷、驚訝或中立。
日本科技開發商富士通推出了一項基於人工智慧的技術,使面部識別在跟蹤情緒表達方面又向前邁進了一步。現有的FR技術是基於「識別各種動作單元——即我們所做的某些面部肌肉運動,這些運動與特定的情緒有關。當前技術的問題在於,人工智慧需要針對龐大數據集進行訓練。它需要知道如何從所有可能的角度和位置識別,一旦沒有足夠的影像,那麼在通常情況下,它就不是那麼準確。
用大量數據訓練人工智慧來有效地檢測情緒,是非常困難的,舉個例子來說,如果實驗過程中,受試者沒有按照要求坐在攝像機前直視鏡頭,實驗就會變得極為困難,類似這樣的問題,很多。

富士通公司稱,他們已經找到了一種提高人臉識別結果在情緒檢測方面提高品質的方法。他們新創建的工具任務是「從一張圖片中提取更多數據」,而不是使用大量圖片來訓練人工智慧。
該公司稱這一過程為「標準化過程」,即將「從特定角度拍攝的照片轉換成類似正面拍攝的影像」。在同樣有限的數據集下,可以更好地檢測到更多的AUs,即使是從一個傾斜的角度拍攝照片,也可以識別複雜的情緒,這比目前分析方法的核心表情更精妙。
這個工具可以檢測出像緊張的笑聲一樣、複雜的情緒變化,準確率達81%,這個數字是通過『標準評估方法』確定的。相比之下,根據獨立研究統計結果顯示,微軟的工具只有60%的準確率,而且在處理從更傾斜的角度拍攝的照片時,這個準確度還會下跌。