国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

自編碼算法與稀疏性

2019-11-06 08:20:41
字體:
來源:轉載
供稿:網友

目前為止,我們已經討論了神經網絡在有監督學習中的應用。在有監督學習中,訓練樣本是有類別標簽的。現在假設我們只有一個沒有帶類別標簽的訓練樣本集合/textstyle /{x^{(1)}, x^{(2)}, x^{(3)}, /ldots/} ,其中/textstyle x^{(i)} /in /Re^{n} 。自編碼神經網絡是一種無監督學習算法,它使用了反向傳播算法,并讓目標值等于輸入值,比如/textstyle y^{(i)} = x^{(i)} 。下圖是一個自編碼神經網絡的示例。

Autoencoder636.png

自編碼神經網絡嘗試學習一個 /textstyle h_{W,b}(x) /approx x 的函數。換句話說,它嘗試逼近一個恒等函數,從而使得輸出/textstyle /hat{x} 接近于輸入/textstyle x 。恒等函數雖然看上去不太有學習的意義,但是當我們為自編碼神經網絡加入某些限制,比如限定隱藏神經元的數量,我們就可以從輸入數據中發現一些有趣的結構。舉例來說,假設某個自編碼神經網絡的輸入/textstyle x 是一張/textstyle 10 /times 10 圖像(共100個像素)的像素灰度值,于是/textstyle n=100 ,其隱藏層/textstyle L_2 中有50個隱藏神經元。注意,輸出也是100維的/textstyle y /in /Re^{100} 。由于只有50個隱藏神經元,我們迫使自編碼神經網絡去學習輸入數據的壓縮表示,也就是說,它必須從50維的隱藏神經元激活度向量/textstyle a^{(2)} /in /Re^{50}重構出100維的像素灰度值輸入/textstyle x 。如果網絡的輸入數據是完全隨機的,比如每一個輸入/textstyle x_i 都是一個跟其它特征完全無關的獨立同分布高斯隨機變量,那么這一壓縮表示將會非常難學習。但是如果輸入數據中隱含著一些特定的結構,比如某些輸入特征是彼此相關的,那么這一算法就可以發現輸入數據中的這些相關性。事實上,這一簡單的自編碼神經網絡通常可以學習出一個跟主元分析(PCA)結果非常相似的輸入數據的低維表示

我們剛才的論述是基于隱藏神經元數量較小的假設。但是即使隱藏神經元的數量較大(可能比輸入像素的個數還要多),我們仍然通過給自編碼神經網絡施加一些其他的限制條件來發現輸入數據中的結構。具體來說,如果我們給隱藏神經元加入稀疏性限制,那么自編碼神經網絡即使在隱藏神經元數量較多的情況下仍然可以發現輸入數據中一些有趣的結構。

稀疏性可以被簡單地解釋如下。如果當神經元的輸出接近于1的時候我們認為它被激活,而輸出接近于0的時候認為它被抑制,那么使得神經元大部分的時間都是被抑制的限制則被稱作稀疏性限制。這里我們假設的神經元的激活函數是sigmoid函數。如果你使用tanh作為激活函數的話,當神經元輸出為-1的時候,我們認為神經元是被抑制的。

注意到 /textstyle a^{(2)}_j 表示隱藏神經元/textstyle j 的激活度,但是這一表示方法中并未明確指出哪一個輸入/textstyle x 帶來了這一激活度。所以我們將使用/textstyle a^{(2)}_j(x) 來表示在給定輸入為/textstyle x 情況下,自編碼神經網絡隱藏神經元/textstyle j 的激活度。進一步,讓

/begin{align}/hat/rho_j = /frac{1}{m} /sum_{i=1}^m /left[ a^{(2)}_j(x^{(i)}) /right]/end{align}

表示隱藏神經元 /textstyle j 的平均活躍度(在訓練集上取平均)。我們可以近似的加入一條限制

/begin{align}/hat/rho_j = /rho,/end{align}

其中, /textstyle /rho稀疏性參數,通常是一個接近于0的較小的值(比如/textstyle /rho = 0.05 )。換句話說,我們想要讓隱藏神經元/textstyle j 的平均活躍度接近0.05。為了滿足這一條件,隱藏神經元的活躍度必須接近于0。

為了實現這一限制,我們將會在我們的優化目標函數中加入一個額外的懲罰因子,而這一懲罰因子將懲罰那些 /textstyle /hat/rho_j/textstyle /rho 有顯著不同的情況從而使得隱藏神經元的平均活躍度保持在較小范圍內。懲罰因子的具體形式有很多種合理的選擇,我們將會選擇以下這一種:

/begin{align}/sum_{j=1}^{s_2} /rho /log /frac{/rho}{/hat/rho_j} + (1-/rho) /log /frac{1-/rho}{1-/hat/rho_j}./end{align}

這里, /textstyle s_2 是隱藏層中隱藏神經元的數量,而索引/textstyle j 依次代表隱藏層中的每一個神經元。如果你對相對熵(KL divergence)比較熟悉,這一懲罰因子實際上是基于它的。于是懲罰因子也可以被表示為

/begin{align}/sum_{j=1}^{s_2} {/rm KL}(/rho || /hat/rho_j),/end{align}

其中 /textstyle {/rm KL}(/rho || /hat/rho_j) = /rho /log /frac{/rho}{/hat/rho_j} + (1-/rho) /log /frac{1-/rho}{1-/hat/rho_j} 是一個以 /textstyle /rho 為均值和一個以/textstyle /hat/rho_j 為均值的兩個伯努利隨機變量之間的相對熵。相對熵是一種標準的用來測量兩個分布之間差異的方法。(如果你沒有見過相對熵,不用擔心,所有你需要知道的內容都會被包含在這份筆記之中。)

這一懲罰因子有如下性質,當 /textstyle /hat/rho_j = /rho/textstyle {/rm KL}(/rho || /hat/rho_j) = 0 ,并且隨著/textstyle /hat/rho_j/textstyle /rho 之間的差異增大而單調遞增。舉例來說,在下圖中,我們設定/textstyle /rho = 0.2 并且畫出了相對熵值/textstyle {/rm KL}(/rho || /hat/rho_j) 隨著/textstyle /hat/rho_j 變化的變化。

KLPenaltyExample.png

我們可以看出,相對熵在 /textstyle /hat/rho_j = /rho 時達到它的最小值0,而當/textstyle /hat/rho_j 靠近0或者1的時候,相對熵則變得非常大(其實是趨向于/textstyle /infty)。所以,最小化這一懲罰因子具有使得/textstyle /hat/rho_j 靠近/textstyle /rho 的效果。現在,我們的總體代價函數可以表示為

/begin{align}J_{/rm sparse}(W,b) = J(W,b) + /beta /sum_{j=1}^{s_2} {/rm KL}(/rho || /hat/rho_j),/end{align}

其中 /textstyle J(W,b) 如之前所定義,而/textstyle /beta 控制稀疏性懲罰因子的權重。/textstyle /hat/rho_j 項則也(間接地)取決于/textstyle W,b ,因為它是隱藏神經元/textstyle j 的平均激活度,而隱藏層神經元的激活度取決于/textstyle W,b

為了對相對熵進行導數計算,我們可以使用一個易于實現的技巧,這只需要在你的程序中稍作改動即可。具體來說,前面在反向傳播算法中計算第二層( /textstyle l=2 )更新的時候我們已經計算了

/begin{align}/delta^{(2)}_i = /left( /sum_{j=1}^{s_{2}} W^{(2)}_{ji} /delta^{(3)}_j /right) f'(z^{(2)}_i),/end{align}

現在我們將其換成

/begin{align}/delta^{(2)}_i =  /left( /left( /sum_{j=1}^{s_{2}} W^{(2)}_{ji} /delta^{(3)}_j /right)+ /beta /left( - /frac{/rho}{/hat/rho_i} + /frac{1-/rho}{1-/hat/rho_i} /right) /right) f'(z^{(2)}_i) ./end{align}

就可以了。

有一個需要注意的地方就是我們需要知道 /textstyle /hat/rho_i 來計算這一項更新。所以在計算任何神經元的反向傳播之前,你需要對所有的訓練樣本計算一遍前向傳播,從而獲取平均激活度。如果你的訓練樣本可以小到被整個存到內存之中(對于編程作業來說,通常如此),你可以方便地在你所有的樣本上計算前向傳播并將得到的激活度存入內存并且計算平均激活度 。然后你就可以使用事先計算好的激活度來對所有的訓練樣本進行反向傳播的計算。如果你的數據量太大,無法全部存入內存,你就可以掃過你的訓練樣本并計算一次前向傳播,然后將獲得的結果累積起來并計算平均激活度/textstyle /hat/rho_i (當某一個前向傳播的結果中的激活度/textstyle a^{(2)}_i 被用于計算平均激活度/textstyle /hat/rho_i 之后就可以將此結果刪除)。然后當你完成平均激活度/textstyle /hat/rho_i 的計算之后,你需要重新對每一個訓練樣本做一次前向傳播從而可以對其進行反向傳播的計算。對于后一種情況,你對每一個訓練樣本需要計算兩次前向傳播,所以在計算上的效率會稍低一些。

如果想要使用經過以上修改的反向傳播來實現自編碼神經網絡,那么就要對目標函數/textstyle J_{/rm sparse}(W,b) 做梯度下降。使用梯度驗證方法來驗證梯度下降算法是否正確。


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 台北县| 保亭| 徐州市| 湖口县| 静安区| 邯郸市| 南川市| 伊金霍洛旗| 汤阴县| 唐海县| 文山县| 安泽县| 邢台县| 长白| 铜梁县| 宜阳县| 丽水市| 永吉县| 广安市| 广饶县| 昆明市| 舒城县| 宝应县| 亚东县| 芦溪县| 桂林市| 清远市| 锡林郭勒盟| 昌乐县| 津市市| 宁蒗| 扎兰屯市| 太湖县| 阿勒泰市| 潞西市| 乳山市| 寿阳县| 松溪县| 什邡市| 延长县| 资中县|