論文解讀(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》
論文資訊
論文標題:Cross-domain Contrastive Learning for Unsupervised Domain Adaptation
論文作者:Rui Wang, Zuxuan Wu, Zejia Weng, Jingjing Chen, Guo-Jun Qi, Yu-Gang Jiang
論文來源:aRxiv 2022
論文地址:download
論文程式碼:download
1 Introduction
無監督域自適應(UDA)的目的是將從一個完全標記的源域學習到的知識轉移到一個不同的未標記的目標域。 大多數現有的 UDA 方法通過最小化域間的特徵距離來學習域不變的特徵表示。
UDA 研究方向:
-
- discrepancy-based methods:最小化不同域之間的差異;
- adversarial-based methods:為域鑒別器設計一個對抗性優化目標,並通過對抗性學習獲得域不變表示;
- domain-adaptive dictionary learning;
- multi-modality representation learning;
- feature disentanglement;
我們的目標是通過對比自監督學習來調整源域和目標域之間的特徵分布。
2 方法
NT-Xent loss
B. Cross-domain Contrastive Learning
考慮目標域樣本$\boldsymbol{x}_{t}^{i}$ 的 $\ell_{2}\text{-normalized}$ 特徵 $\boldsymbol{z}_{t}^{i}$ 作為錨,它的正樣本為同一類的源域樣本,其特徵表示為 $\boldsymbol{z}_{s}^{p}$,那麼跨域對比損失:
$\mathcal{L}_{C D C}^{t, i}=-\frac{1}{\left|P_{s}\left(\hat{y}_{t}^{i}\right)\right|} \sum\limits _{p \in P_{s}\left(\hat{y}_{t}^{i}\right)} \log \frac{\exp \left(\boldsymbol{z}_{t}^{i^{\top}} \boldsymbol{z}_{s}^{p} / \tau\right)}{\sum\limits_{j \in I_{s}} \exp \left(\boldsymbol{z}_{t}^{i^{\top}} \boldsymbol{z}_{s}^{j} / \tau\right)} \quad\quad\quad(2)$
其中,$I_{S}$ 代表一個 mini-batch 中的源域樣本集合,$P_{s}\left(\hat{y}_{t}^{i}\right)=\left\{k \mid y_{s}^{k}=\hat{y}_{t}^{i}\right\}$ 代表源域和目標域樣本 $x_{t}^{i}$ 有相同標籤;
$\mathcal{L}_{C D C}=\sum\limits _{i=1}^{N_{s}} \mathcal{L}_{C D C}^{s, i}+\sum\limits_{i=1}^{N_{t}} \mathcal{L}_{C D C}^{t, i} \quad\quad\quad(3)$
$\underset{\boldsymbol{\theta}}{\operatorname{minimize}} \quad \mathcal{L}_{C E}\left(\boldsymbol{\theta} ; D_{s}\right)+\lambda \mathcal{L}_{C D C}\left(\boldsymbol{\theta} ; D_{s}, D_{t}\right) \quad\quad\quad(4)$
C. Pseudo Labels for the Target Domain
在訓練過程中,沒有來自目標域的真實標籤,因此利用 k-means 聚類產生偽標籤。由於 K-means 對初始化很敏感,因此使用隨機生成的集群不能保證與預定義類別相關的相關語義。為緩解這個問題,將簇的數量設置為類 $M$ 的數量,並使用來自源域的類原型作為初始簇。
$O_{t}^{m} \leftarrow O_{s}^{m}=\mathbb{E}_{i \sim D_{s}\;, \; y_{s}^{i}=m} z_{s}^{i} \quad\quad\quad(5)$
D. Source Data-free UDA
Note:預訓練模型 $f_{s}$ 是上文提到的通過交叉熵優化得到的。
許多標準的 UDA 設置,假設在源域和目標域上共享相同的特徵編碼器,然而由於特徵編碼器不能同時在源域和目標域上訓練,所以 Source Data-free UDA 無法實現。本文的 CDCL 在缺少源域數據的情況下面臨的挑戰是 :(1) form positive and negative pairs and (2) to compute source class prototypes。
本文通過用訓練模型 $𝑓_𝑠$ 的分類器權值替換源樣本來解決這個問題。直覺是,預先訓練模型的分類器層的權向量可以看作是在源域上學習到的每個類的原型特徵。特別地,我們首先消除了全連通層的 bias ,並對分類器進行了歸一化處理。假設 $\boldsymbol{w}_{s}^{m}\in \boldsymbol{W}_{s}=\left[\boldsymbol{w}_{s}^{1}, \ldots, \boldsymbol{w}_{s}^{M}\right]$ 代表從源域學到的 $M$ 分類器的權重向量,由於權值是規範化的,所以我們將它們用作類原型。當適應目標域時,凍結分類器層的參數,以保持源原型,並且只訓練特徵編碼器。通過用源原型替換源樣本,在源數據自由設置下的跨域對比損失可以寫為:
$\mathcal{L}_{S D F-C D C}^{t, i}=-\sum\limits_{m=1}^{M} \mathbf{1}_{\hat{y}_{t}^{i}=m} \log \frac{\exp \left(\boldsymbol{z}_{t}^{i^{\top}} \boldsymbol{w}_{s}^{m} / \tau\right)}{\sum\limits _{j=1}^{M} \exp \left(\boldsymbol{z}_{t}^{i^{\top}} \boldsymbol{w}_{S}^{j} / \tau\right)} \quad\quad\quad(6)$
source data-free UDA 的最終目標是:
$\operatorname{minimize} \sum\limits _{i=1}^{N_{t}} \mathcal{L}_{S D F-C D C}^{t, i} \quad\quad\quad(8)$