专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

教科书上的LDA为什么长这样?

PaperWeekly  · 公众号  · 科研  · 2018-08-30 13:10
作者丨DeAlVe学校丨某211硕士生研究方向丨模式识别与机器学习线性判别分析(Linear Discriminant Analysis, LDA)是一种有监督降维方法,有关机器学习的书上一定少不了对 PCA 和 LDA 这两个算法的介绍。LDA 的标准建模形式是这样的(这里以两类版本为例,文章会在几个关键点上讨论多类情况):其中,是类间散布矩阵,是类内散布矩阵, w 是投影直线:怎么样,一定非常熟悉吧,经典的 LDA 就是长这个样子的。这个式子的目标也十分直观:将两类样本投影到一条直线上,使得投影后的类间散布矩阵与类内散布矩阵的比值最大。三个加粗的词隐含着三个问题: 1. 为什么是类间散布矩阵呢?直接均值之差 m1-m2 不是更符合直觉吗?这样求出来的解和原来一样吗? 2. 为什么是投影到 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照