混合高斯模型(Mixtures of Gaussians):
GMM(Gaussian Mixture Model) 統計學習的模型有兩種,一種是概率模型,一種是非概率模型。 所謂概率模型,是指訓練模型的形式是P(Y|X)。輸入是X,輸出是Y,訓練后模型得到的輸出不是一個具體的值,而是一系列的概率值(對應于分類問題來說,就是輸入X對應于各個不同Y(類)的概率),然后我們選取概率最大的那個類作為判決對象(軟分類--soft assignment)。所謂非概率模型,是指訓練模型是一個決策函數Y=f(X),輸入數據X是多少就可以投影得到唯一的Y,即判決結果(硬分類--hard assignment)。 所謂混合高斯模型(GMM)就是指對樣本的概率密度分布進行估計,而估計采用的模型(訓練模型)是幾個高斯模型的加權和(具體是幾個要在模型訓練前建立好)。每個高斯模型就代表了一個類(一個Cluster)。對樣本中的數據分別在幾個高斯模型上投影,就會分別得到在各個類上的概率。然后我們可以選取概率最大的類所為判決結果。 從中心極限定理的角度上看,把混合模型假設為高斯的是比較合理的,當然,也可以根據實際數據定義成任何分布的Mixture Model,不過定義為高斯的在計算上有一些方便之處,另外,理論上可以通過增加Model的個數,用GMM近似任何概率分布。
最大期望算法(Expectation Maximization Algorithm,又譯期望最大化算法),是一種迭代算法,用于含有隱變量(latent variable)的概率參數模型的最大似然估計或極大后驗概率估計。
http://blog.csdn.net/u012409883/article/details/17090911
http://www.52ml.net/7890.html
http://blog.csdn.net/xuanyuansen/article/details/41309033
http://blog.csdn.net/hevc_cjl/article/details/9733945
http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html
新聞熱點
疑難解答