陳丹琦、楊笛一、李宏毅榮獲Salesforce AI研究基金,每人5萬美元!

  • 2021 年 1 月 28 日
  • AI
 作者 | 陳大鑫
昨日,Salesforce研究院宣布了2020年度Salesforce人工智慧研究基金的獲獎者。
本年度一共有六位AI領域的學者入選,其中就包括大家比較熟知的陳丹琦楊笛一
Salesforce研究院將為每一位獲獎者提供5萬美元的資助,以推動他們的研究工作來幫助塑造人工智慧的未來。
據了解這是Salesforce第三年提供這項研究基金,本次申請人數破了紀錄。一共有來自30多個國家的180多個高品質學進行申請。在這輪申請中,Salesforce研究院最終根據申請提案品質、idea的新穎性以及與Salesforce提出的研究課題的相關性,授予6位AI學者研究基金資助。
以下對陳丹琦和楊笛一二人做簡單介紹。
陳丹琦
陳丹琦目前為普林斯頓大學電腦系助理教授。丹琦在高中期間參加第 20 屆國際資訊學奧林匹克競賽 (IOI2008) 獲得金牌被保送到清華姚班,後直博到斯坦福大學。
在斯坦福期間,陳丹琦發表的論文《A Fast and Accurate Dependency Parser using Neural Networks》堪稱深度學習依存分析方法的「開山之作」,她和曼寧教授提出的方法在保持精度的前提下,將解析速度提高了 60 倍。
2019 年,她一篇關註解決「如何讓機器學會理解人類語言」問題的畢業論文《Neural Reading Comprehension andBeyond》上傳僅四天,就獲得了上千次的閱讀量,成為了斯坦福近十年來最熱門的畢業論文之一。而她的導師 Christopher Manning 更是對她高度評價,認為她是「使用神經網路方法解決自然語言理解問題方面的先驅」。
獲獎proposal:從人類回饋中學習自然語言處理任務的機器生成原理
我們建議開發一個human-in-the-loop框架,旨在結合基於機器生成原理的人類回饋。
給定輸入後,模型將為人類提供回饋的中間依據。回饋將用於修改、轉換或補充該中間表示,從而使其變得完全人類可解釋。該模型在訓練和生成新輸出之間進行迭代以收集回饋。這種方法可以極大地提高模型的性能,並提供更高的可解釋性。

楊笛一
楊笛一現為喬治亞理工學院交互計算系助理教授,隸屬於機器學習中心。本科就讀於上海交通大學ACM班,隨後赴卡內基梅隆大學語言技術研究所攻讀碩士、博士,並於2019年獲得卡內基梅隆大學博士學位。
她的研究興趣包括計算社會語言於自然語言處理。她曾連續三年獲得Facebook博士生獎研金(2017-2019),她的工作曾獲得EMNLP 2015、AAAI 2016網頁與社交媒體、2019年ACM CHI等高峰會的最佳論文提名。
有關楊笛一的更多介紹請參考AI科技評論之前發表的「楊笛一:女孩長大後數理化可以很好,科研可以很鮮活」一文、
獲獎proposal:用於結構化預測的有限數據的語言資訊學習
在深度學習時代,自然語言處理(NLP)在大多數數據密集型環境中都取得了非常好的表現。但是,當只有一個或幾個訓練示例時,有監督的深度學習模型通常會失敗。
AI對標記數據的這種強烈依賴性在很大程度上阻止了將神經網路模型應用於新的環境設置或現實世界當中。為了減少有監督模型對標記數據的依賴性,人們設計了各種數據增強方法,儘管這些方法在諸如文本分類的許多NLP任務中得到了廣泛使用,但是在涉及單個句子可能具有各種相互關聯的結構和標籤的結構化預測任務時,這些技術通常仍難以創建具有語言學意義的、多樣化且高品質的增強樣本。
為了在少樣本學習中用有限的數據訓練更好的結構預測模型,並減少它們對有標記的結構化數據的依賴性,我們提出了一種新穎的數據增強方法,可以基於局部可加性來創建無限的訓練樣本,且可以將經過增強的樣本約束樣本直接互相接近。為了進一步增強有限數據的學習,我們將通過設計未標記數據及其擴充之間的語言資訊自監督損失,將這些局部可加性增量用於半監督的少樣本學習。我們在兩個經典的結構化預測應用程式任務中(NER和語義解析)證明了這些模型的有效性。
 
在本年度(第三屆)Salesforce人工智慧研究基金之外,AI科技評論整理髮現在前兩屆入選的AI學者當中也能發現四位華人學者的身影,現簡單介紹如下。

譚宸浩

譚宸浩現為芝加哥大學電腦系助理教授,本科在清華大學獲得電腦和經濟學雙學位,電腦系導師為唐傑教授,博士畢業於康奈爾大學電腦系。
主要研究自然語言處理,計算社會科學,具體包括語言和社會動態、以人為中心的機器學習、多社區參與,一個人與多個社區的互動方式以及社區之間的相互關係。
個人主頁://chenhaot.com/
 

李宏毅

李宏毅目前是國立台灣大學電氣工程系的副教授,他碩博均在台灣大學就讀,之後曾在中國科學院資訊技術創新研究中心擔任博士後。後又在MIT電腦科學與人工智慧實驗室(CSAIL)擔任口語系統小組的客座科學家。他的研究重點是機器學習(尤其是深度學習)、口語理解和語音識別。
提起李宏毅老師,熟悉機器學習的讀者朋友一定不會陌生,很多人選擇的機器學習入門學習影片都是李宏毅老師的台大機器學習/深度學習公開課。
因為經常把精靈寶可夢或涼宮春日等各種動漫作為講課案例,三句不離精靈寶可夢,被網友親切地稱為精靈寶可夢大師
因為課程形象生動,又不缺數學推導的嚴謹,李宏毅老師的課程影片可以說是中文世界中最好的機器學習資源之一。
李老師以幽默風趣的上課風格讓很多晦澀難懂的機器學習理論變得輕鬆易懂。
此外李老師的課程會與時俱進,比如前年ML課程就新增 Transformer、流模型和對抗攻擊等新內容。去年的課程則對BERT、XLNet 等語言模型做了很多介紹。
個人主頁://speech.ee.ntu.edu.tw/~tlkagk/index.html
 
吳天福
現為北卡羅萊納州立大學電氣與電腦工程系助理教授,本科畢業於中國科學技術大學,碩士就讀於合肥工業大學,博士在加州大學洛杉磯分校統計學專業就讀,其博士導師為電腦視覺大牛朱松純。
個人主頁://tfwu.github.io/

顧全全

現為加州大學洛杉磯分校電腦科學助理教授,2003年-2007年本科就讀於清華大學自動化專業,2013年取得清華大學控制科學與工程碩士學位,2014年獲得伊利諾伊大學香檳分校電腦科學博士學位。
研究領域是統計機器學習,致力於開發和分析用於機器學習的非凸優化演算法,以了解大規模、動態、複雜和異構的數據,並為深度學習奠定理論基礎。目前正在負責一個統計機器學習實驗室。在ICML (2019, 2020, 2021), NeurIPS (2019), ICLR (2020, 2021), AAAI (2020, 2021), IJCAI (2021), AISTATS (2020, 2021)擔任領域主席。
個人主頁://web.cs.ucla.edu/~qgu/
 
參考鏈接:
//twitter.com/SFResearch/status/1353859038073614336
//blog.einstein.ai/celebrating-the-winners-of-the-third-annual-salesforce-ai-research-grant/
//blog.einstein.ai/celebrating-the-inaugural-salesforce-research-deep-learning-grant-winners/



點擊閱讀原文,直達AAAI小組!

由於微信公眾號試行亂序推送,您可能不再能準時收到AI科技評論的推送。為了第一時間收到AI科技評論的報道, 請將「AI科技評論」設為星標帳號,以及常點文末右下角的「在看」。