ICLR 2020 | 告別死記硬背,元學習才能學會學習
本文介紹的是 ICLR 2020 spotlight 論文《Meta-Learning without Memorization》(無記憶的元學習),來自德克薩斯大學奧斯汀分校在讀博士生殷明章。

論文: //openreview.net/pdf?id=BklEFpEYwS
程式碼: //github.com/google-research/google-research/tree/master/meta_learning_without_memorization
讓我們回顧片刻在學校學習的經歷。每一天我們去上課,回答老師的問題;回家後我們解答作業問題,對照答案檢查正確與否。日積月累,我們不僅學到了知識,更學會了如何學習 (learning to learn)。當面對新任務時,我們可以利用之前解決問題的經驗並加上少量的練習,迅速學會新的技能。這種 「快速適應 (fast adaptation)」 能力被認為是智慧的重要體現。在人工智慧領域,元學習 (meta-learning) 是一種使機器 「學會學習」 的有效手段。
在這篇論文里,我們發現一個表徵能力強大的人工神經網路除了 「快速適應」 外,還可以通過 「記憶」 的方式來解決訓練集里的多項任務。不幸的是,一個只會記憶的神經網路不具備解決新任務的能力。這篇論文旨在提出、定義、分析元學習中的記憶問題,並提出新的元正則化方法 (meta-regularization) 以避免記憶問題。
要訓練一個元學習模型,首先需要從一個任務分布
中生成多個任務。每個任務都由一個帶標註的任務內訓練數據
和測試數據
組成。我們用
代表所有用於元訓練(meta-training)的數據,
代表一個元測試階段的新任務。
我們在
上訓練模型, 目標是當面對新任務時,它能夠在少量訓練數據
上實現快速適應,從而準確預測新任務測試數據
的標籤。這個過程可以表示為一個層次型的圖模型:
回到開頭的例子, 假設在學校每天學習的內容是解決一種題型,這對應於元訓練里的一個任務。經過一段時間後,假設每種題型都被重複學習了若干次。如果一個學生可以記住各個題型,那麼她/他將不需要再去上課也可以解決作業里的問題。也就是說她/他可以解決已知題型里的新問題,但這樣的純粹記憶並不能解決新的題型。讓我們再看一個例子,假設每一個元訓練里的任務是擬合一些線性相關的數據。我們希望模型能夠學會利用少量的數據去估計模型參數,如下圖所示:

這種快速適應能力可以泛化到解決元測試中的未曾見過的新任務,如下圖(左)。但我們發現,如果模型足夠靈活,那麼一個單一模型就可以解決元訓練中的所有任務,並且忽略任何任務內訓練數據,如下圖(右)。這導致在元測試階段,當面對一個新任務時,演算法仍然會忽略任務內訓練數據,但這樣做將無法解決新任務

我們將這樣的現象定義為元學習中的記憶問題 (memorization problem),數學上表述為條件互資訊為零:

值得注意的是記憶問題是否會出現與任務分布
緊密相關。我們發現,如果各任務是互斥的(mutually exclusive),意即一個單一預測模型不可以解決所有的任務,那麼記憶問題不會出現。例如小樣本分類(few-shot classification)廣泛地利用了這個特性。但在很大一類問題中,各任務不互斥,因此記憶問題廣泛存在,並會影響多種元學習演算法。
基於以上分析和圖表式,我們發現用於預測模型的資訊來自元訓練數據
, 任務內訓練數據
和輸入
。因此如果能夠控制來自
和
的資訊,同時要求實現精確預測,就可以鼓勵模型利用
中的資訊而不是忽略它。利用資訊不等式和PAC-Bayes理論,我們得出一種方式是利用資訊瓶頸(information bottleneck)約束:


其中
對應編碼器 (encoder):
的參數。將以上元正則項 (Meta Regularization)和Model Agnostic Meta-Learning (MAML),Conditional Neural Process (CNP) 相結合, 我們提出了新的 「MAML先生」 (MR MAML) 和 「CNP先生」 (MR CNP) 演算法。在幾個非互斥任務的數據集上,我們的演算法實現了大幅度的性能提升。在一個3D物體方向預測數據集上我們進行了實驗:


-
-
記憶問題是一種任務層面的過擬合,這不同於傳統上數據點層面的過擬合
-
通過元正則方法我們有效地控制了記憶問題,並拓展了元學習的應用場景
感謝 George Tucker,Mingyuan Zhou,Sergey Levine和Chelsea Finn的合作。
