国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

python機器學習理論與實戰(六)支持向量機

2020-02-22 22:55:07
字體:
來源:轉載
供稿:網友

上節基本完成了SVM的理論推倒,尋找最大化間隔的目標最終轉換成求解拉格朗日乘子變量alpha的求解問題,求出了alpha即可求解出SVM的權重W,有了權重也就有了最大間隔距離,但是其實上節我們有個假設:就是訓練集是線性可分的,這樣求出的alpha在[0,infinite]。但是如果數據不是線性可分的呢?此時我們就要允許部分的樣本可以越過分類器,這樣優化的目標函數就可以不變,只要引入松弛變量即可,它表示錯分類樣本點的代價,分類正確時它等于0,當分類錯誤時,其中Tn表示樣本的真實標簽-1或者1,回顧上節中,我們把支持向量到分類器的距離固定為1,因此兩類的支持向量間的距離肯定大于1的,當分類錯誤時肯定也大于1,如(圖五)所示(這里公式和圖標序號都接上一節)。

(圖五)

       這樣有了錯分類的代價,我們把上節(公式四)的目標函數上添加上這一項錯分類代價,得到如(公式八)的形式:

(公式八)

重復上節的拉格朗日乘子法步驟,得到(公式九):


(公式九)

         多了一個Un乘子,當然我們的工作就是繼續求解此目標函數,繼續重復上節的步驟,求導得到(公式十):

 

(公式十)

         又因為alpha大于0,而且Un大于0,所以0<alpha<C,為了解釋的清晰一些,我們把(公式九)的KKT條件也發出來(上節中的第三類優化問題),注意Un是大于等于0:

 

      推導到現在,優化函數的形式基本沒變,只是多了一項錯分類的價值,但是多了一個條件,0<alpha<C,C是一個常數,它的作用就是在允許有錯誤分類的情況下,控制最大化間距,它太大了會導致過擬合,太小了會導致欠擬合。接下來的步驟貌似大家都應該知道了,多了一個C常量的限制條件,然后繼續用SMO算法優化求解二次規劃,但是我想繼續把核函數也一次說了,如果樣本線性不可分,引入核函數后,把樣本映射到高維空間就可以線性可分,如(圖六)所示的線性不可分的樣本:

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 门源| 库车县| 江源县| 海南省| 衢州市| 化德县| 娄底市| 胶南市| 淳化县| 喀喇| 松滋市| 库伦旗| 宽城| 孟州市| 河西区| 武穴市| 怀安县| 潮州市| 大洼县| 册亨县| 弥勒县| 新营市| 汤原县| 来宾市| 浦北县| 台南市| 乌鲁木齐市| 漯河市| 安庆市| 合水县| 焦作市| 通州区| 吐鲁番市| 开江县| 昌平区| 拜泉县| 岱山县| 定襄县| 南木林县| 轮台县| 佛学|