陈丹琦、杨笛一、李宏毅荣获Salesforce AI研究基金,每人5万美元!

  • 2021 年 1 月 28 日
  • AI
 作者 | 陈大鑫
昨日,Salesforce研究院宣布了2020年度Salesforce人工智能研究基金的获奖者。
本年度一共有六位AI领域的学者入选,其中就包括大家比较熟知的陈丹琦杨笛一
Salesforce研究院将为每一位获奖者提供5万美元的资助,以推动他们的研究工作来帮助塑造人工智能的未来。
据了解这是Salesforce第三年提供这项研究基金,本次申请人数破了纪录。一共有来自30多个国家的180多个高质量学进行申请。在这轮申请中,Salesforce研究院最终根据申请提案质量、idea的新颖性以及与Salesforce提出的研究课题的相关性,授予6位AI学者研究基金资助。
以下对陈丹琦和杨笛一二人做简单介绍。
陈丹琦
陈丹琦目前为普林斯顿大学计算机系助理教授。丹琦在高中期间参加第 20 届国际信息学奥林匹克竞赛 (IOI2008) 获得金牌被保送到清华姚班,后直博到斯坦福大学。
在斯坦福期间,陈丹琦发表的论文《A Fast and Accurate Dependency Parser using Neural Networks》堪称深度学习依存分析方法的“开山之作”,她和曼宁教授提出的方法在保持精度的前提下,将解析速度提高了 60 倍。
2019 年,她一篇关注解决“如何让机器学会理解人类语言”问题的毕业论文《Neural Reading Comprehension andBeyond》上传仅四天,就获得了上千次的阅读量,成为了斯坦福近十年来最热门的毕业论文之一。而她的导师 Christopher Manning 更是对她高度评价,认为她是“使用神经网络方法解决自然语言理解问题方面的先驱”。
获奖proposal:从人类反馈中学习自然语言处理任务的机器生成原理
我们建议开发一个human-in-the-loop框架,旨在结合基于机器生成原理的人类反馈。
给定输入后,模型将为人类提供反馈的中间依据。反馈将用于修改、转换或补充该中间表示,从而使其变得完全人类可解释。该模型在训练和生成新输出之间进行迭代以收集反馈。这种方法可以极大地提高模型的性能,并提供更高的可解释性。

杨笛一
杨笛一现为佐治亚理工学院交互计算系助理教授,隶属于机器学习中心。本科就读于上海交通大学ACM班,随后赴卡内基梅隆大学语言技术研究所攻读硕士、博士,并于2019年获得卡内基梅隆大学博士学位。
她的研究兴趣包括计算社会语言于自然语言处理。她曾连续三年获得Facebook博士生奖研金(2017-2019),她的工作曾获得EMNLP 2015、AAAI 2016网页与社交媒体、2019年ACM CHI等顶会的最佳论文提名。
有关杨笛一的更多介绍请参考AI科技评论之前发表的“杨笛一:女孩长大后数理化可以很好,科研可以很鲜活”一文、
获奖proposal:用于结构化预测的有限数据的语言信息学习
在深度学习时代,自然语言处理(NLP)在大多数数据密集型环境中都取得了非常好的表现。但是,当只有一个或几个训练示例时,有监督的深度学习模型通常会失败。
AI对标记数据的这种强烈依赖性在很大程度上阻止了将神经网络模型应用于新的环境设置或现实世界当中。为了减少有监督模型对标记数据的依赖性,人们设计了各种数据增强方法,尽管这些方法在诸如文本分类的许多NLP任务中得到了广泛使用,但是在涉及单个句子可能具有各种相互关联的结构和标签的结构化预测任务时,这些技术通常仍难以创建具有语言学意义的、多样化且高质量的增强样本。
为了在少样本学习中用有限的数据训练更好的结构预测模型,并减少它们对有标记的结构化数据的依赖性,我们提出了一种新颖的数据增强方法,可以基于局部可加性来创建无限的训练样本,且可以将经过增强的样本约束样本直接互相接近。为了进一步增强有限数据的学习,我们将通过设计未标记数据及其扩充之间的语言信息自监督损失,将这些局部可加性增量用于半监督的少样本学习。我们在两个经典的结构化预测应用程序任务中(NER和语义解析)证明了这些模型的有效性。
 
在本年度(第三届)Salesforce人工智能研究基金之外,AI科技评论整理发现在前两届入选的AI学者当中也能发现四位华人学者的身影,现简单介绍如下。

谭宸浩

谭宸浩现为芝加哥大学计算机系助理教授,本科在清华大学获得计算机和经济学双学位,计算机系导师为唐杰教授,博士毕业于康奈尔大学计算机系。
主要研究自然语言处理,计算社会科学,具体包括语言和社会动态、以人为中心的机器学习、多社区参与,一个人与多个社区的互动方式以及社区之间的相互关系。
个人主页://chenhaot.com/
 

李宏毅

李宏毅目前是国立台湾大学电气工程系的副教授,他硕博均在台湾大学就读,之后曾在中国科学院信息技术创新研究中心担任博士后。后又在MIT计算机科学与人工智能实验室(CSAIL)担任口语系统小组的客座科学家。他的研究重点是机器学习(尤其是深度学习)、口语理解和语音识别。
提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生,很多人选择的机器学习入门学习视频都是李宏毅老师的台大机器学习/深度学习公开课。
因为经常把精灵宝可梦或凉宫春日等各种动漫作为讲课案例,三句不离精灵宝可梦,被网友亲切地称为精灵宝可梦大师
因为课程形象生动,又不缺数学推导的严谨,李宏毅老师的课程视频可以说是中文世界中最好的机器学习资源之一。
李老师以幽默风趣的上课风格让很多晦涩难懂的机器学习理论变得轻松易懂。
此外李老师的课程会与时俱进,比如前年ML课程就新增 Transformer、流模型和对抗攻击等新内容。去年的课程则对BERT、XLNet 等语言模型做了很多介绍。
个人主页://speech.ee.ntu.edu.tw/~tlkagk/index.html
 
吴天福
现为北卡罗莱纳州立大学电气与计算机工程系助理教授,本科毕业于中国科学技术大学,硕士就读于合肥工业大学,博士在加州大学洛杉矶分校统计学专业就读,其博士导师为计算机视觉大牛朱松纯。
个人主页://tfwu.github.io/

顾全全

现为加州大学洛杉矶分校计算机科学助理教授,2003年-2007年本科就读于清华大学自动化专业,2013年取得清华大学控制科学与工程硕士学位,2014年获得伊利诺伊大学香槟分校计算机科学博士学位。
研究领域是统计机器学习,致力于开发和分析用于机器学习的非凸优化算法,以了解大规模、动态、复杂和异构的数据,并为深度学习奠定理论基础。目前正在负责一个统计机器学习实验室。在ICML (2019, 2020, 2021), NeurIPS (2019), ICLR (2020, 2021), AAAI (2020, 2021), IJCAI (2021), AISTATS (2020, 2021)担任领域主席。
个人主页://web.cs.ucla.edu/~qgu/
 
参考链接:
//twitter.com/SFResearch/status/1353859038073614336
//blog.einstein.ai/celebrating-the-winners-of-the-third-annual-salesforce-ai-research-grant/
//blog.einstein.ai/celebrating-the-inaugural-salesforce-research-deep-learning-grant-winners/



点击阅读原文,直达AAAI小组!

由于微信公众号试行乱序推送,您可能不再能准时收到AI科技评论的推送。为了第一时间收到AI科技评论的报道, 请将“AI科技评论”设为星标账号,以及常点文末右下角的“在看”。