主要观点总结
文章介绍了样本重要性权重(Importance Weighting, IW)在机器学习中应对训练-测试数据分布不一致问题的应用。通过给样本赋予合适的权重,可以在分布不一致的情况下,学出在目标分布上的无偏估计。文章详细阐述了IW的理论基础,通过变换损失函数来适应目标分布。同时介绍了数据漂移(Covariant Shift)和标签漂移(Label Shift)两种情况,并通过举例说明了IW在解决这些问题时的具体应用。最后,文章提到了相关参考文献和推荐阅读。
关键观点总结
关键观点1: 样本重要性权重(IW)是应对训练-测试数据分布不一致问题的经典方法。
通过给样本赋予合适的权重,可以在分布不一致的情况下,学出在目标分布上的无偏估计。
关键观点2: IW的理论基础是通过变换损失函数来适应目标分布。
通过对函数乘上一个权重,然后在原始分布上进行估计,就可以得到在目标分布上的无偏估计。
关键观点3: 数据漂移和标签漂移是数据分布不一致的两种情况。
数据漂移指的是X的不同分布,而标签漂移指的是Y的不同分布。这两种情况都可以通过IW来解决。
关键观点4: IW在实际应用中有一定的局限性。
需要提前预知目标分布,这在现实中几乎是不可能的。但可以通过一些先验知识找到近似分布,以此来提高模型的性能。
文章预览
样本 重要性权重 (Importance Weighting, IW)是一种在机器学习中应对「 训练-测试数据分布不一致 」问题的经典方法,通过对样本给予合适的权重,理论上我们可以在分布不一致的情况下,学出在目标分布上的无偏估计。 unset unset 简单理论推导 unset unset 假设训练集样本 来自于分布 ,我们称该分布为 原始分布 (Source Distribution),在该分布上我们要学习某个函数 ,从而在某个 目标分布 (Target Distribution) 上进行预测。在目标分布 上对 的估计为: 在原始分布 上对 的估计则为: 要想在原始分布 上能够拟合出在目标分布 上的无偏估计,我们可以通过以下的变换来得到: 可见,对函数 乘上一个权重 ,然后再在原始分布 上进行估计,就可以得到在目标分布 上的无偏估计,这里的 就是所谓的 样本重要性权重(Importance Weight,IW) 。 也就是说,我
………………………………