定期分享机器学习领域原创文章,公众号内容涵盖了机器学习算法和python数据分析等文章,目前监督学习方法的文章应有尽有,非监督学习的原创文章一直在更新,欢迎机器学习爱好者和从业者的加入,互相学习,共同成长。
今天看啥  ›  专栏  ›  机器学习算法那些事

想学SVD(奇异值分解)算法?看这篇就够了

机器学习算法那些事  · 公众号  ·  · 2024-09-01 14:25

主要观点总结

本文主要介绍了奇异值分解(SVD)算法的基础理解,以及它在现实世界中的应用。文章通过示例展示了SVD在图像降维、特征脸和降低噪声等方面的应用。

关键观点总结

关键观点1: SVD(奇异值分解)是最常用的无监督学习算法之一,用于将任意矩阵分解为三个矩阵的乘积。

SVD通过将矩阵分解为三个矩阵,提供了一种理解和降低数据维度的方法。

关键观点2: SVD在图像处理和机器学习中具有广泛应用,如图像降维、特征脸和去除噪声等。

通过SVD,我们可以更好地理解和处理图像数据,提取图像中的关键信息。

关键观点3: SVD可以帮助我们理解数据中的模式,通过将数据分解为不同的组成部分,我们可以更好地理解每个部分的作用和影响。

例如,在特征脸应用中,SVD可以帮助我们识别图像中的关键特征。


文章预览

线性代数是机器学习领域的基础,其中一个最重要的概念是奇异值分解(SVD),本文尽可能简洁的介绍SVD(奇异值分解)算法的基础理解,以及它在现实世界中的应用。 SVD是最广泛使用的无监督学习算法之一,它在许多推荐系统和降维系统中居于核心位置,这些系统是全球公司如谷歌、Netflix、Facebook、YouTube等的核心技术。 简单来说,SVD是将一个任意矩阵分解为三个矩阵。所以如果我们有一个矩阵A,那么它的SVD可以表示为: A是 矩阵,U是 的正交矩阵, 是 的 非 负 对 角 矩 阵 , 是 的正交矩阵。 U也被称为左奇异向量,S为奇异值,V为右奇异向量。 带维度的奇异值分解: 用矩阵表示奇异值分解: image-20240808230323995 我们通常将具有较大特征值 的向量排列在前,而较小特征值的向量则排在后面。 特征值与向量的对应关系: 与特征值分解相比,奇异 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览