照騙終結者,新研究使用膠囊網路檢測虛假影像|一周AI最火論文
- 2019 年 11 月 6 日
- 筆記
大數據文摘專欄作品 作者:Christopher Dossman 編譯:Joey、Vicky、雲舟 嗚啦啦啦啦啦啦啦大家好,拖更的AIScholar Weekly欄目又和大家見面啦! AI ScholarWeekly是AI領域的學術專欄,致力於為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每周AI學術的前沿資訊。 每周更新,做AI科研,每周從這一篇開始就夠啦!
本周關鍵詞:GAN、Deep Fake、膠囊網路
本周最佳學術研究
Google AI再憋大招,為會話助手引入內容導向的對話數據集 Google AI最近推出了Schema Guided Dialogue(SGD)數據集,這是一種面向任務的對話語料庫。訓練集中有超過18000個對話,涵蓋來自17個領域的26種服務,這也是目前最大的已標記、面向任務的對話數據集。這個數據集的標記包括每個用戶話語的活動意圖、對話狀態,以及對應於系統話語的系統動作。同時,SGD還是第一個涵蓋多個領域並為每個領域提供多個API的數據集。

Google還提出了一種用來解決一些對話助手領域挑戰的方法:利用對話架構來指導構建虛擬助手。該方法通用於所有服務和領域的模型,且沒有特定於領域的參數。 在現有數據集無法充分描述現實世界時,SGD數據集將能很大地幫助到我們。與此同時,它還通過簡化新服務和API與大規模虛擬助手進行集成,為虛擬助手提供可擴展的建模方法。該數據集還被設計為在大型虛擬助手中用於意圖預測、狀態跟蹤、插槽填充和語言生成以及其他更多任務的有效測試平台。 原文: https://arxiv.org/pdf/1909.05855.pdf 文本轉影像過程中語意對象準確性的研究 在本文中,研究人員介紹了一種新的GAN架構(OPGAN),該架構可以根據一些文本影像描述對單個對象進行建模。他們通過向「生成器」和「鑒別器」添加對象路徑來實現此目的,這些生成器和鑒別器以不同的解析度和比例學習單個對象的特徵。基於定量和定性評估,該模型持續改進了基準線結構。此外,它以通用的定量評估指標獲得了目前業界最優秀的結果,並增加了對影像生成過程的控制。

他們還引入了一種稱為語義對象準確度(SOA)的新評估指標,該指標可評估模型在複雜場景中生成單個對象的能力。新的SOA評估可以更詳細地評估文本轉影像的效果,與此同時它還能檢測單個對象失敗和成功的具體細節。 文本轉影像在現實生活中有許多實際應用,包括照片編輯或生成電腦輔助內容等等。儘管某些模型可以對幾個最常見的對象實現高精度轉換,但在對稀有對象或不具有易於識別外表特徵的對象進行建模時,現有的所有模型均會失敗。 本文中提出的SOA是一個評估文本轉影像模型的重要指標,因為它提供了有關不同對象類和影像標題更詳細的資訊,這對於構建良好的生成模型和指導未來的模型改進非常有價值。 程式碼傳送門: https://github.com/tohinz/semantic-object-accuracy-for-generative-text-to-image-synthesis 原文: https://arxiv.org/abs/1910.13321v1 基於雙重情感的假新聞檢測框架 在這篇論文中,研究人員研究了在虛假新聞檢測中學習雙重情感的問題,並提出了一個新的基於雙重情感的虛假新聞檢測框架(DEAN)。 DEAN由三個部分組成。第一個模組分析發布者的資訊,其中包括新聞內容中的語義和情感資訊;第二個部分是注釋模組,用於捕獲用戶的語義和情感資訊;第三個是偽造新聞的預測組件,它將新聞內容和用戶評論中得到的潛在表示融合在一起,以此判定這一新聞是否為偽造。

該框架可以分別為發布者和用戶學習內容和情感表示。DEAN還能夠同時利用雙重情感表示來檢測假新聞。 假新聞的產生和傳播會帶來很多有害的社會後果。我們需要努力構建自動有效的檢測假新聞的工具。而這一最新提出的DEAN框架可以捕獲和整合雙重情感,通過學習新聞來檢測假新聞。在使用微博和Twitter數據集進行評估時,DEAN優於現有的幾種最新的假新聞檢測方法,這也證明了其有效性。 原文: https://arxiv.org/abs/1903.01728v2 用膠囊網路檢測虛假影像和影片 針對DeepFake所提出的對策有不少,但它們大多針對特定領域,並且在應用於其它領域或面對新的攻擊時喪失有效性。 本文介紹了一種膠囊網路(capsule network),它可以利用印刷影像和使用深度學習創建的回放影片來檢測各種DeepFake的攻擊。與具有相似性能的傳統卷積神經網路相比,膠囊網路運用的參數要少得多。 此外,研究人員首次通過詳細分析和可視化解釋了將膠囊網路應用於法醫學問題背後的原理。

這一膠囊取證方法可以應用於數字影像和影片取證,包括檢測電腦操作/生成的影像和影片以及檢測演示攻擊。 該方法在使用較少參數的情況下,在測試任務中等效於或優於目前最先進的方法,從而極大降低了計算成本。 原文: https://arxiv.org/abs/1910.12467v2
生成對抗網路的前世今生
生成對抗網路(GAN)激發了人們對生成模型的極大興趣,從而產生了一波能讓新的研究人員望而生畏的新研究成果。 本文旨在通過將現有的研究分成6個「前沿」來幫助解決這種情況:架構貢獻、條件技術、歸一化和約束貢獻、損失函數、影像到影像的轉換和驗證指標。

前沿的劃分將文獻組織成可接近的區塊,最終顯示出該領域是如何演變的。這項工作也以表格形式列出了該領域先前的研究,重點集中在其中的一些前沿,從而使研究人員建議用更完整、更全面的概述來填補其留下的空白。 據Google學術稱,Goodfellow等人的開創性論文《生成對抗網路(Generative Adversarial Nets)》被引用了12000多次,這個趨勢自2017年起有了顯著提高。因此,有必要對相關作品的演變進行調查。這項工作對GAN進行了簡單回顧,目的是成為其大量文獻的切入點。同時,這項工作還著眼於幫助研究人員們更新他們的技術。 原文: https://arxiv.org/abs/1910.13076v1、
其他爆款論文 研究人員介紹了適用於個人ReID公共數據集和現實設置的網路和訓練修正: https://arxiv.org/pdf/1910.07038v2.pdf 基於EEG的語音增強: https://arxiv.org/pdf/1909.09132v3.pdf 為商品推薦所設計的新變分貝葉斯上下文感知表示(VBCAR)模型,優於現有的最新方法: https://arxiv.org/abs/1909.07705v2
以角色為基礎的聊天生成框架: https://arxiv.org/abs/1910.13008v1 第三屆神經生成與翻譯研討會的發現: https://arxiv.org/abs/1910.13299v1 基於變壓器的級聯多峰語音翻譯: https://arxiv.org/abs/1910.13215v1
數據集
用於視覺注意力建模的合成影像基準數據集: http://www.cvc.uab.es 第一個用來訓練與評估互動式導航的綜合基準: https://sites.google.com/view/interactivegibsonenv
AI大事件
Faceboook強調了將二維對象轉換成三維形態的人工智慧: https://venturebeat.com/2019/10/29/facebook-highlights-ai-that-converts-2d-objects-into-3d-shapes/?utm_campaign=Artificial%2BIntelligence%2BWeekly&utm_medium=email&utm_source=Artificial_Intelligence_Weekly_130 人類一敗塗地!AI征服《星際爭霸2》: https://www.independent.co.uk/life-style/gadgets-and-tech/gaming/artificial-intelligence-starcraft-2-ai-deepmind-a9176601.html 世界首屈一指的電腦視覺會議之一上周在韓國首爾舉行: http://iccv2019.thecvf.com/ 員工信任機器人勝過經理? https://www.forbes.com/sites/gilpress/2019/11/01/ai-stats-news-64-of-workers-trust-a-robot-more-than-their-manager/#7bf06c072b21 機器兩腳獸如何在奔跑跳躍的過程中模仿人類保持平衡: https://www.sciencedaily.com/releases/2019/10/191030151155.htm

專欄作者介紹 Christopher Dossman是Wonder Technologies的首席數據科學家,在北京生活5年。他是深度學習系統部署方面的專家,在開發新的AI產品方面擁有豐富的經驗。除了卓越的工程經驗,他還教授了1000名學生了解深度學習基礎。 LinkedIn: https://www.linkedin.com/in/christopherdossman/