ACL 2022獎項公布!達摩院、華為等機構獲獎,陳丹琦、楊笛一亦榜上有名
- 2022 年 5 月 18 日
- AI
作者 | 劉冰一
近日,自然語言處理國際頂會 ACL 2022 公布了今年的獲獎工作,華人學者表現突出:今年的 ACL 一共選出八篇傑出論文,其中,四篇由中國機構或海外知名華人學者獲得,佔了一半!
獲獎企業包括阿里達摩院、華為諾亞方舟實驗室等,而獲獎工作的華人作者有陳丹琦、楊笛一、金榕等知名學者。
ACL 2022是CCF A類會議,人工智能領域自然語言處理(Natural Language Processing,NLP)方向最權威的國際會議之一。它由國際計算語言學協會組織,每年籌辦一次。第 60 屆 ACL 大會,將於 2022 年 5 月 22 日至 27 日在愛爾蘭都柏林召開。
本屆大會主會議共接收了 604 篇長論文和 97 篇短論文。
獲獎工作和作者介紹
最佳論文
本屆最佳論文(Best Paper)來自加州大學伯克利分校研究團隊,該研究提出了一種增量句法表示。
-
題目:Learned Incremental Representations for Parsing
-
作者:Nikita Kitaev, Thomas Lu 、Dan Klein
-
機構:加州大學伯克利分校
-
鏈接://aclanthology.org/2022.acl-long.220.pdf
論文摘要:該研究提出了一種增量句法表示,該表示包括為句子中的每個單詞分配一個離散標籤,其中標籤是使用句子前綴的嚴格增量處理來預測的,並且句子標籤序列完全確定了解析樹,這種表示方法區別於標準表示。
該研究使用更強大的預訓練模型和額外監督,將相同的預訓練編碼器與深度雙向處理相結合,結合所有因素,達到96.38 F1。這表明該研究可以誘導出具有競爭性精度的解析樹。該研究還對系統學習到的表示進行了分析,他們研究了系統捕獲的可解釋句法特徵等屬性,以及句法歧義的延遲解決機制。但是這些技術由於它們側重於深入的雙向神經處理而不能被借用到增量設置中。
Daniel Klein
1998年,Klein 在康奈爾大學拿到數學、計算機科學、語言學3個學士學位。同年他去了牛津大學,在語言學專業上獲取本碩博學位。1999年博士畢業他再次進入斯坦福攻讀計算機科學博士學位,後進入伯克利人工智能實驗室(BAIR)。
得益於多年的語言學和計算機學科的學科背景,他在自然語言處理的研究上成績斐然。Klein 教授的研究包括無監督學習方法、句法解析、信息提取和機器翻譯。
Daniel Klein曾獲得ACM 的 Grace Murray Hopper 獎、斯隆研究獎學金、美國國家科學基金會CAREER獎和微軟新教師獎學金。多次在ACL、NAACL、EMNLP獲得最佳論文獎。
Dan培養了許多優秀學生,如Aria Haghighi、John DeNero 和 Percy Liang。
傑出論文
Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
-
作者:Xiangpeng Wei、Heng Yu、Yue Hu、Rongxiang Weng、Weihua Luo、Rong Jin
-
機構:阿里達摩院、中科院信息工程研究所、中國科學院大學
-
論文地址://arxiv.org/pdf/2204.06812v1.pdf
論文摘要:監督神經機器翻譯(NMT)在學習生成以來自一組並行句子對的源輸入為條件的目標句子時,通常觀察到模型的泛化性受訓練中使用的並行數據量的影響很大。因此,研究者提出了一種新的數據增強範式——連續語義增強(Continuous Semantic Augmentation, CsaNMT),為每個訓練實例增加了一個鄰接語義區域。
金榕
金榕現任阿里巴巴集團副總裁、達摩院副院長。他曾是密歇根州立大學終身教授,曾任NIPS、SIGIR等頂級國際學術會議的主席,獲得過美國國家科學基金會NSF Career Award。2014年7月,42歲的金榕決定加入阿里巴巴,成為達摩院機器智能實驗室負責人。終身教授、海歸科學家、不是學霸、浪漫絕緣體等標籤齊聚在金榕身上,他被同事稱為「隨和得最不像科學家的科學家」。
Inducing Positive Perspectives with Text Reframing
-
作者:Caleb Ziems、Minzhi Li、Anthony Zhang、Diyi Yang
-
機構:佐治亞理工學院、新加坡國立大學
-
論文地址://arxiv.org/pdf/2204.02952v1.pdf
論文摘要:該研究引入了積極重構任務,在該任務中,該研究為作者生成更積極的觀點,並且不易與原始含義產生矛盾。該研究引入了一個大規模的基準,積極心理學框架(POSITIVE PSYCHOLOGY FRAMES),其具有 8349 個句子對和 12755 個結構化注釋,以根據六種理論動機的重構策略來解釋積極重構。
楊笛一
她曾就讀陝西省興平市西郊高級中學,2009年,高考中以優異的成績考入上海交通大學,在俞勇老師的感染下加入聚集各路競賽大神的ACM班。本科期間發表4篇頂會論文,一作2篇,獲得2012年谷歌Anita Borg 計算機學科女性獎學金、2013年上海交大致遠傑出學生獎學金。
2013年,楊笛一從上海交大ACM班畢業,赴卡內基梅隆大學語言技術研究所攻讀碩士、博士,28歲成為佐治亞理工學院的助理教授。後因楊笛一在NLP領域的卓越成就,入選2020年「福布斯30位30歲以下科學精英榜」(Forbes 30 Under 30 list in Science)。
AI科技評論曾對楊笛一進行過專訪,有興趣讀者點擊鏈接可見全文。
Ditch the Gold Standard: Re-evaluating Conversational Question Answering
-
作者:Huihan Li、高天宇、Manan Goenka、陳丹琦
-
機構:普林斯頓大學
-
論文地址://arxiv.org/pdf/2112.08812v2.pdf
論文摘要:在這項工作中,該研究對 SOTA 對話式 QA 系統進行了首次大規模人類評估,通過人類與模型對話判斷答案正確性。研究發現人機對話的分佈與人-人對話的分佈有很大的不同。人類評估和黃金歷史(goldhistory)評估存在分歧,該研究進一步改進自動評估,並提出了預測歷史重寫機制,以便和人類判斷更好地關聯。最後,該研究分析了各種建模策略的影響,並討論了構建更好的對話式問答系統的未來方向。、
陳丹琦
2008年畢業於長沙市雅禮中學,同年8月赴埃及開羅參加第20屆國際信息學奧林匹克競賽獲得金牌,之後免試錄取進入清華大學,2012年畢業於清華大學計算機科學實驗室(姚班),同年赴美留學。曾經是Facebook人工智能訪問科學家,2018年憑藉博士論文《Neural Reading Comprehension and Beyond》獲得斯坦福大學博士,師從Christopher Manning,丈夫是清華大學同班同學,計算機科學家俞華程。
2019年擔任普林斯頓大學計算機科學系助理教授。2021年入選Google人工智能2021研究學者計劃。
本文一作高天宇師從陳丹琦,目前是普林斯頓大學的二年級博士生,本科畢業於清華大學,曾經獲得清華本科特等獎學金。
Compression of Generative Pre-trained Language Models via Quantization
-
作者:陶超凡、侯璐、張偉、尚利峰、蔣欣、劉群、羅平、黃毅
-
機構:香港大學、華為諾亞實驗室
-
論文地址://arxiv.org/pdf/2203.10705v1.pdf
論文摘要:本文採用量化方法對生成式 PLM(Pre-trained Language Models)進行壓縮,提出了一種 token 級的對比蒸餾方法來學習可區分的詞嵌入,此外,研究還提出了一種模塊級的動態擴展來使量化器適應不同的模塊,在各種任務的經驗結果表明,該研究提出的方法在生成 PLM 上明顯優於 SOTA 壓縮方法。在 GPT-2 和 BART 上分別實現了 14.4 倍和 13.4 倍的壓縮率。
第一作者陶超凡,香港大學(HKU)博士研究生,師從香港大學的黃毅和羅萍。研究興趣是高性能機器學習(網絡壓縮和加速),並應用於視覺和語言任務,論文發表在ACL/ECCV/CIKM/AAAI等。
參考鏈接:
//www.2022.aclweb.org/best-paper-awards
//www2.eecs.berkeley.edu/Faculty/Homepages/klein.html
//chaofantao.top/
雷峰網