今日 Paper | MaskGAN;深度人臉識別;人體姿態估計;妝容遷移等


  目錄

CurricularFace: 深度人臉識別的適應性課程學習損失

MaskGAN:多樣和交互的面部圖像操作

結合檢測和跟蹤的視頻人體姿態估計

通過解糾纏表示的局部面部妝容遷移

基於自動生成的訓練數據進行大規模事件抽取學習

  CurricularFace: 深度人臉識別的適應性課程學習損失

論文名稱:CurricularFace: Adaptive Curriculum Learning Loss for Deep Face Recognition

作者:Huang Yuge /Wang Yuhan /Tai Ying /Liu Xiaoming /Shen Pengcheng /Li Shaoxin /Li Jilin /Huang Feiyue

發表時間:2020/4/1

論文鏈接://paper.yanxishe.com/review/15951

推薦原因

這是騰訊優圖入選CVPR 2020的論文,考慮的是人臉識別的問題。

在人臉識別中,設計基於邊際的損失函數可以增加不同類別之間的特徵邊界,以增強可分辨性。這篇論文提出了一種新的自適應課程學習損失(Adaptive Curriculum Learning Loss,CurricularFace)策略,將課程學習的思想嵌入到損失函數中,從而實現一種用於深層人臉識別的新訓練策略,該策略主要針對早期訓練階段中的簡單樣本和困難樣本。CurricularFace在不同的訓練階段自適應地調整了簡單樣本和硬樣本的相對權重。在每個階段,根據不同難度將不同樣本分配給不同重要性,從而在實驗中優於其他方法。

  MaskGAN: 多樣和交互的面部圖像操作

論文名稱:MaskGAN: Towards Diverse and Interactive Facial Image Manipulation

作者:Lee Cheng-Han /Liu Ziwei /Wu Lingyun /Luo Ping

發表時間:2019/7/27

論文鏈接://paper.yanxishe.com/review/15950

推薦原因

這篇論文被CVPR 2020接收,處理的是面部圖像操作。

這篇論文提出了一個支持多樣化和交互式面部操作的新的框架,稱為MaskGAN。MaskGAN主要由兩部分組成:密集映射網絡(DMN)和編輯行為模擬訓練(EBST),其中DMN學習自由形式的用戶修改的MASK和目標圖像之間的樣式映射,從而支持不同的生成結果。EBST可以對源MASK上的用戶編輯行為建模,使整個框架對各種操作輸入更加健壯。這篇論文還構建了一個大規模的高分辨率人臉數據集,並使用了名為CelebAMask-HQ的細粒度MASK標註規則。評估結果顯示MaskGAN在屬性遷移和樣式複製這兩個任務上優於其他方法。

  結合檢測和跟蹤的視頻人體姿態估計

論文名稱:Combining detection and tracking for human pose estimation in videos

作者:Wang Manchen /Tighe Joseph /Modolo Davide

發表時間:2020/3/30

論文鏈接://paper.yanxishe.com/review/15949

推薦原因

這篇論文被CVPR 2020接收,要解決的是人體姿態估計的問題。

與現有方法相比,這篇論文提出的新方法通過在時間上向前和向後傳播已知人員的位置並在這些區域中搜索姿勢,來預測未定位的人員實例。新方法包括三個部分:1)一個剪輯跟蹤網絡,對小型視頻剪輯執行人體關節檢測和跟蹤;2)視頻跟蹤管道,將剪輯跟蹤網絡產生的固定長度的小軌道合併到任意長度軌道中;3)時空融合過程,根據空間和時間平滑項精鍊關節位置。得益於剪輯跟蹤網絡和合併程序的精確性,新方法可以產生非常準確的聯合預測,且可解決棘手場景(如糾纏不清的人)的常見錯誤。

  通過解糾纏表示的局部面部妝容遷移

論文名稱:Local Facial Makeup Transfer via Disentangled Representation

作者:Sun Zhaoyang /Liu Wenxuan /Liu Feng /Liu Ryan Wen /Xiong Shengwu

發表時間:2020/3/27

論文鏈接://paper.yanxishe.com/review/15948

推薦原因

這篇論文考慮的是面部妝容遷移的問題。

面部妝容遷移的目的是在任意給定的化妝圖像中呈現非化妝的面部圖像,同時保留面部特徵。當前最佳方法是將化妝風格信息從人臉圖像中分離出來,實現化妝效果的傳遞。然而,化妝風格包含了幾種語義清晰的局部風格表示,而這些表示通常糾纏在一起。這篇論文提出了一種新的統一對抗解糾纏網絡,將人臉圖像進一步分解為四個獨立分量(包括個人身份、唇妝風格、眼妝風格、臉妝風格)。由於化妝風格的進一步分解,新方法不僅可以控制全局化妝風格的程度,還可以靈活地調節局部化妝風格的程度。同時這篇論文將化妝遷移與卸妝整合成一個統一的框架,從而得到了多個卸妝效果。大量的實驗證明,相比於當前最先進的方法,新提出的方法可以產生更真實和準確的化妝遷移結果。

  基於自動生成的訓練數據進行大規模事件抽取學習

論文名稱:Scale Up Event Extraction Learning via Automatic Training Data Generation

作者:Ying Zeng; Yansong Feng; Rong Ma; Zheng Wang ; Rui Yan ; Chongde Shi ; Dongyan Zhao

發表時間:2017/11/11

論文鏈接://paper.yanxishe.com/review/14885

推薦原因

作者針對當時事件抽取任務中專業性強、需要人工定義trigger word、標註數據不足等問題,提出了一種基於Distant supervise的一般性事件抽取數據集,並且設計了一種基於關鍵論元的事件抽取模型,利用樣本中的關鍵論元來推斷出事件類型,進一步補充其他論元生成完成的事件表信息。

本文提出的基於關鍵論元的模型,不需要人工定義trigger word,同時結合以維基百科為基礎生成的數據集,對人工標註的樣本進行訓練,得到了更好的效果。

儘管現在有一些新的端到端的神經網絡模型的出現,並且也有了較之本文sentence-level更進一步的document-level,corpus-level的事件抽取,但是本文依然很值得一讀。本文詳細的講述了基於Distant supervise數據集以及關鍵論元的設計思路和生成方法,有助於理解一個好的事件抽取模型應該抽取什麼樣的信息。