图解机器学习/第十八章 迁移学习

利用过去学习的得到的经验、知识,来提高当前以及将来进行的学习任务的求解精度,这样的方式称为迁移学习。

协变量移位下的迁移学习

在统计学里,输入变量称为协变量。协变量移位是指输入输出关系不变,协变量的概率分布发生变化的情况。

重要度加权学习

如果只利用当前学习任务的输入训练样本$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$近旁的输入输出训练样本$\lbrace (x_i, y_i)\rbrace _{i=1}^n$进行学习,一般是可以很好地对$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$的输出进行预测。这种思路可以通过使用输入输出训练样本的重要度权重进行学习来实现。

重要度,是指当前学习任务的输入训练样本$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$的概率密度$p’(x)$和原始学习任务的输入训练样本$\lbrace x_i \rbrace_{i=1}^n$的概率密度$p(x)$的比

重要度加权最小二乘学习

重要度加权最小二乘学习,理论上可以认为是统计学中的重要性采样,可以据此来理解其算法的本质。重要性采样,是指利用与$p(x)$相关的加权期望值来计算与$p’(x)$相关的期望值的方法

相对重要度加权学习

一般而言,当重要度函数$w(x)$的值非常大的时候,就特别容易引起不稳定现象,因此如果能使得重要度函数稍许平滑,就可以使学习结果稳定下来。为此可以使用比重要度稍微钝一些的相对重要度

重要度加权模型选择

重要度加权交叉验证法的算法流程:

  1. 把训练样本$\mathcal{T}=\lbrace (x_i,y_i) \rbrace_{i=1}^n$随机划分为$m$个集合$\lbrace \mathcal{T}_i \rbrace_{i=1}^m$

  2. 对$i=1,\dots,m$循环执行如下操作

    1. 使用除$\mathcal{T}_i$以外的训练样本$\mathcal{T}/ \mathcal{T}_i$,求解其学习结果$f_i$

    2. 把上述过程中没有参与学习的训练样本$\mathcal{T}_i$作为测试样本,对$f_i$的泛化误差进行重要度加权评估

    在这里,$|\mathcal{T}_i|$表示集合$\mathcal{T}_i$包含的训练样本的个数

  3. 对各个$i$的泛化误差的评估值$\hat{G}_i$进行平均,得到最终的泛化误差$\hat{G}$

重要度加权估计

不计算概率密度而直接求得相对重要度的方法。

首先把相对重要度函数$w_{\beta}(x)$用下式的与参数相关的线性模型进行模型化

在这里,$\alpha = (\alpha_1,\dots,\alpha_b)^{\intercal}$为参数向量,$\psi(x)=(\psi_1(x), \dots, \psi_b(x))^{\intercal}$为基函数向量。

类别平衡变化下的迁移学习

类别平衡变化,是指各个类别的输入样本的概率分布不变,但是各个类别之间的样本数的平衡发生变化的情况。

类别平衡加权学习

在分类问题中,有时候各个类别的样本数的平衡在训练样本和测试样本中是不一致的。为了使最终结果与测试样本的类别平衡相吻合,可以对训练样本进行加权学习,来纠正误差。

具体而言,就是在训练时的类别$y$出现的概率为$p(y)$,测试时的类别$y$出现的概率为$p’(y)$的时候,对$p’(y)/p(y)$的概率比进行加权学习。

最小二乘学习的情况下,进行如下式学习

Comments