图解机器学习/第十八章 迁移学习

利用过去学习的得到的经验、知识,来提高当前以及将来进行的学习任务的求解精度,这样的方式称为迁移学习。

协变量移位下的迁移学习

在统计学里,输入变量称为协变量。协变量移位是指输入输出关系不变,协变量的概率分布发生变化的情况。

重要度加权学习

如果只利用当前学习任务的输入训练样本$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$近旁的输入输出训练样本$\lbrace (x_i, y_i)\rbrace _{i=1}^n$进行学习,一般是可以很好地对$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$的输出进行预测。这种思路可以通过使用输入输出训练样本的重要度权重进行学习来实现。

重要度,是指当前学习任务的输入训练样本$\lbrace x’_{i’} \rbrace_{i’=1}^{n’}$的概率密度$p’(x)$和原始学习任务的输入训练样本$\lbrace x_i \rbrace_{i=1}^n$的概率密度$p(x)$的比

重要度加权最小二乘学习

重要度加权最小二乘学习,理论上可以认为是统计学中的重要性采样,可以据此来理解其算法的本质。重要性采样,是指利用与$p(x)$相关的加权期望值来计算与$p’(x)$相关的期望值的方法

相对重要度加权学习

一般而言,当重要度函数$w(x)$的值非常大的时候,就特别容易引起不稳定现象,因此如果能使得重要度函数稍许平滑,就可以使学习结果稳定下来。为此可以使用比重要度稍微钝一些的相对重要度

重要度加权模型选择

重要度加权交叉验证法的算法流程:

  1. 把训练样本$\mathcal{T}=\lbrace (x_i,y_i) \rbrace_{i=1}^n$随机划分为$m$个集合$\lbrace \mathcal{T}_i \rbrace_{i=1}^m$

  2. 对$i=1,\dots,m$循环执行如下操作

    1. 使用除$\mathcal{T}_i$以外的训练样本$\mathcal{T}/ \mathcal{T}_i$,求解其学习结果$f_i$

    2. 把上述过程中没有参与学习的训练样本$\mathcal{T}_i$作为测试样本,对$f_i$的泛化误差进行重要度加权评估

    在这里,$|\mathcal{T}_i|$表示集合$\mathcal{T}_i$包含的训练样本的个数

  3. 对各个$i$的泛化误差的评估值$\hat{G}_i$进行平均,得到最终的泛化误差$\hat{G}$

Read More