国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Pytorch之finetune使用詳解

2020-02-15 21:29:23
字體:
來源:轉載
供稿:網友

finetune分為全局finetune和局部finetune。首先介紹一下局部finetune步驟:

1.固定參數

  for name, child in model.named_children():    for param in child.parameters():      param.requires_grad = False

后,只傳入 需要反傳的參數,否則會報錯

filter(lambda param: param.requires_grad, model.parameters())

2.調低學習率,加快衰減

finetune是在預訓練模型上進行微調,學習速率不能太大。

目前不清楚:學習速率降低的幅度可以更快一些。這樣以來,在使用step的策略時,stepsize可以更小一些。

直接從原始數據訓練的base_lr一般為0.01,微調要比0.01小,置為0.001

要比直接訓練的小一些,直接訓練的stepsize為100000,finetune的stepsize: 50000

3. 固定bn或取消dropout:

batchnorm會影響訓練的效果,隨著每個batch,追蹤樣本的均值和方差。對于固定的網絡,bn應該使用全局的數值

def freeze_bn(self):  for layer in self.modules():    if isinstance(layer, nn.BatchNorm2d):      layer.eval()

訓練時,model.train()會修改模式,freeze_zn()應該在這里后面

4.過濾參數

訓練時,對于優化器,應該只傳入需要改變的參數,否則會報錯

filter(lambda p: p.requires_grad, model.parameters())

以上這篇Pytorch之finetune使用詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 安图县| 揭西县| 渭源县| 潍坊市| 永宁县| 图木舒克市| 依安县| 巩留县| 内乡县| 友谊县| 年辖:市辖区| 姚安县| 平远县| 辛集市| 秦安县| 卓资县| 六安市| 阳谷县| 衡阳县| 宜兰县| 明水县| 平顺县| 遂昌县| 汽车| 黄梅县| 茌平县| 深水埗区| 宁陵县| 乐山市| 葫芦岛市| 景洪市| 方正县| 巢湖市| 铜陵市| 射阳县| 于田县| 长沙县| 温泉县| 保山市| 安义县| 修文县|