第一个矩阵X
是对词分类的结果,它的每一行表示一个词,每一列表示一个同义词类,对应位置的值表示该词和该同义词类的相关性大小。
第三个矩阵Y
是对文章分类的结果,它的每一列对应一篇文章,每一行表示一个主题,对应位置的值表示该文章和该主题的相关性大小。
第二个矩阵则展示了不同同义词类和不同文章主题的相关性大小。
SVD的第三个用途是用在推荐系统中,同样是用在推荐系统中,我在CSDN博客上看到了与《机器学习实战》里面不一样的用法,《机器学习实战》里面,是根据我前面讲的SVD的第一个用途,对用户评分数据进行简化,然后在简化过的数据上运行相似度算法,所谓相似度算法也就是计算欧氏距离、余弦距离或者皮尔逊相关系数等。而我在博客中看到的用法如下:
前面我们证明了任意一个矩阵A
都能被我们满秩分解,那么现在我们有个评分矩阵R
:
我们将其分解:
上图中的U表示用户数,I表示商品数。然后就是利用R中的已知评分训练P
和Q
使得P
和Q
相乘的结果最好地拟合已知的评分,那么未知的评分也就可以用P
的某一行乘上Q
的某一列得到了:
我们还是采用之前的方法,先列损失函数(目标函数)再优化,这里采用平方误差函数:
优化这个的方法用梯度下降就可以了,前面详细讲过。这个式子在梯度下降的时候,很容易让人产生一个疑惑,x
在哪?自变量在哪?好像只有w
没有x
,的确,普通的式子中,都是将w
与x
进行某种计算得到估计值,进而得到每个样本的估计误差值,但是在这个式子中,x
实际上是一种对w
的选取逻辑,也就是行号和列号,根据x
选择相应w
进行计算,得到估计值,计算误差,梯度下降优化w
,提高拟合效果。这是这个目标函数与其他使用梯度下降方法进行优化的目标函数不同的地方。
第一个Topic机器学习基础到此结束,下一个Topic是深度学习基础。从1月15号到今天,正好一个月,在公司实习,996,只能抽业余时间来写,一个月两万五千多字,对自己来讲也算是在人工智能产品经理方向走出的第一步,希望自己能继续坚持下去,疏漏之处在所难免,希望得到各位前辈的批评指正。
也感谢能一句句看到这的你,如果你不是直接翻到结尾的话
除特别注明外,本站所有文章均为 人工智能学习网 原创,转载请注明出处来自浅谈机器学习基础(下)