Multiple-Gradient Descent Algorithm (MGDA) for Multiobjective Optimization

预备知识

核心思想


proof:

既然 $\mathbf{g}, \bm{w} \in \mathcal{G}$, 则 $\forall \epsilon \in [0, 1]$ 有

$$ (1 - \epsilon) \bm{\omega} + \epsilon \mathbf{g} \in \mathcal{G}. $$

因此, 我们有

$$ \left((1 - \epsilon) \bm{\omega} + \epsilon \mathbf{g} \right)^T \left((1 - \epsilon) \bm{\omega} + \epsilon \mathbf{g} \right) \ge \|\bm{w}\|^2 \\ \Rightarrow \epsilon \bm{\omega}^T (\mathbf{g}- \bm{\omega}) + \epsilon^2 (\mathbf{g} - \bm{w})^T(\mathbf{g} - \bm{w}) \ge 0, \quad \forall \epsilon \in [0, 1]. $$

因此, $\bm{\omega}^T (\mathbf{g} - \bm{\omega}) \ge 0$, 这意味着

$$ \mathbf{g}^T \bm{\omega} \ge \|\bm{\omega}\|^2. $$

proof:

$\omega$ 作为内点, 保证了 LICQ 条件的成立 (此时仅等式约束被激活), 因而可以直接分析 (12) 的 KKT 条件我们有:

$$ \mathbf{g}_i^T \bm{\omega} - \lambda_i \alpha_i + \mu = 0, \\ \lambda_i \alpha_i = 0, \: \mu \cdot \mathbf{1}^T \bm{\alpha} = 0, \\ \lambda_i \ge 0, \\ i=1,2,\ldots, T. $$

因此:

$$ \mathbf{g}_i^T \bm{\omega} = -\mu, $$

$$ \bm{\omega}^T \bm{\omega} = \sum_{i=1}^T \alpha_i \mathbf{g}_i^T\bm{\omega} = -\mu. $$

因此, (16) 成立.


参考文献

  1. Fliege J. and Svaiter B. F. Steepest Descent Methods for Multicriteria Optimization. Math Meth Oper Res, 2000. [PDF] [Code]
  2. Desideri J. Multiple-Gradient Descent Algorithm (MGDA) for Multiobjective Optimization. C. R. Acad. Sci. Paris, Ser. I, 2012. [PDF] [Code]
  3. Sener O. and Koltun V. Multi-Task Learning as Multi-Objective Optimization. NeurIPS, 2018. [PDF] [Code]