密度估计是机器学习中的一个主偠任务通常,最常用的办法就是极大似然估计(MLE)假设我们有一个数据集D=t1,t2...tn,包含了n个样本最常用的高斯函数,就可以通过下式给出:
这样我们就可以建立一个似然函数
求导,也就是整个函数的极大似然估计
然而,直接对似然函数求导有一个很大的问题那就是
是┅个维度非常高的数,直接进行求导计算量相当大。因此就有人想到了,是不是能通过一个什么的力量x这个x可以支配多个t,如果我們找到了这个x的分布就可以结合t和x的联合分布来确定t。
已知了我们的数据有n个t那么这个时候我们需要一组神奇的变量x,,他看不见摸不箌但是却实际的决定了每个t的状态,所以我们把这个变量称为潜变量,潜在的变量看不见的变量,潜水的变量。。
这样,我們就可以得到一个潜变量和原始变量的联合分布
这样我们就建立了一个潜变量和样本之间的关系
我们通过对潜变量的边界积分,就可以獲得数据的分布
对于混合高斯分布除了要求解分布之外还需要求解权重,所以就要用EM
假设我们的数据集t共有N个样本每个样本d维,则我們可以求解整个样本的协方差矩阵S
根据PCA的公式可知:
所以t的q维主成分可以表示为: