婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識(shí)庫 > 解決Pytorch中Batch Normalization layer踩過的坑

解決Pytorch中Batch Normalization layer踩過的坑

熱門標(biāo)簽:電銷機(jī)器人的風(fēng)險(xiǎn) 應(yīng)電話機(jī)器人打電話違法嗎 開封自動(dòng)外呼系統(tǒng)怎么收費(fèi) 400電話辦理哪種 地圖標(biāo)注線上如何操作 開封語音外呼系統(tǒng)代理商 手機(jī)網(wǎng)頁嵌入地圖標(biāo)注位置 河北防封卡電銷卡 天津電話機(jī)器人公司

1. 注意momentum的定義

Pytorch中的BN層的動(dòng)量平滑和常見的動(dòng)量法計(jì)算方式是相反的,默認(rèn)的momentum=0.1

BN層里的表達(dá)式為:

其中γ和β是可以學(xué)習(xí)的參數(shù)。在Pytorch中,BN層的類的參數(shù)有:

CLASS torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

每個(gè)參數(shù)具體含義參見文檔,需要注意的是,affine定義了BN層的參數(shù)γ和β是否是可學(xué)習(xí)的(不可學(xué)習(xí)默認(rèn)是常數(shù)1和0).

2. 注意BN層中含有統(tǒng)計(jì)數(shù)據(jù)數(shù)值,即均值和方差

track_running_stats – a boolean value that when set to True, this module tracks the running mean and variance, and when set to False, this module does not track such statistics and always uses batch statistics in both training and eval modes. Default: True

在訓(xùn)練過程中model.train(),train過程的BN的統(tǒng)計(jì)數(shù)值—均值和方差是通過當(dāng)前batch數(shù)據(jù)估計(jì)的。

并且測(cè)試時(shí),model.eval()后,若track_running_stats=True,模型此刻所使用的統(tǒng)計(jì)數(shù)據(jù)是Running status 中的,即通過指數(shù)衰減規(guī)則,積累到當(dāng)前的數(shù)值。否則依然使用基于當(dāng)前batch數(shù)據(jù)的估計(jì)值。

3. BN層的統(tǒng)計(jì)數(shù)據(jù)更新

是在每一次訓(xùn)練階段model.train()后的forward()方法中自動(dòng)實(shí)現(xiàn)的,而不是在梯度計(jì)算與反向傳播中更新optim.step()中完成

4. 凍結(jié)BN及其統(tǒng)計(jì)數(shù)據(jù)

從上面的分析可以看出來,正確的凍結(jié)BN的方式是在模型訓(xùn)練時(shí),把BN單獨(dú)挑出來,重新設(shè)置其狀態(tài)為eval (在model.train()之后覆蓋training狀態(tài)).

解決方案:

You should use apply instead of searching its children, while named_children() doesn't iteratively search submodules.

def set_bn_eval(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
      m.eval()
model.apply(set_bn_eval)

或者,重寫module中的train()方法:

def train(self, mode=True):
        """
        Override the default train() to freeze the BN parameters
        """
        super(MyNet, self).train(mode)
        if self.freeze_bn:
            print("Freezing Mean/Var of BatchNorm2D.")
            if self.freeze_bn_affine:
                print("Freezing Weight/Bias of BatchNorm2D.")
        if self.freeze_bn:
            for m in self.backbone.modules():
                if isinstance(m, nn.BatchNorm2d):
                    m.eval()
                    if self.freeze_bn_affine:
                        m.weight.requires_grad = False
                        m.bias.requires_grad = False

5. Fix/frozen Batch Norm when training may lead to RuntimeError: expected scalar type Half but found Float

解決辦法:

import torch
import torch.nn as nn
from torch.nn import init
from torchvision import models
from torch.autograd import Variable
from apex.fp16_utils import *
def fix_bn(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
        m.eval()
model = models.resnet50(pretrained=True)
model.cuda()
model = network_to_half(model)
model.train()
model.apply(fix_bn) # fix batchnorm
input = Variable(torch.FloatTensor(8, 3, 224, 224).cuda().half())
output = model(input)
output_mean = torch.mean(output)
output_mean.backward()

Please do

def fix_bn(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
        m.eval().half()

Reason for this is, for regular training it is better (performance-wise) to use cudnn batch norm, which requires its weights to be in fp32, thus batch norm modules are not converted to half in network_to_half. However, cudnn does not support batchnorm backward in the eval mode , which is what you are doing, and to use pytorch implementation for this, weights have to be of the same type as inputs.

補(bǔ)充:深度學(xué)習(xí)總結(jié):用pytorch做dropout和Batch Normalization時(shí)需要注意的地方,用tensorflow做dropout和BN時(shí)需要注意的地方

用pytorch做dropout和BN時(shí)需要注意的地方

pytorch做dropout:

就是train的時(shí)候使用dropout,訓(xùn)練的時(shí)候不使用dropout,

pytorch里面是通過net.eval()固定整個(gè)網(wǎng)絡(luò)參數(shù),包括不會(huì)更新一些前向的參數(shù),沒有dropout,BN參數(shù)固定,理論上對(duì)所有的validation set都要使用net.eval()

net.train()表示會(huì)納入梯度的計(jì)算。

net_dropped = torch.nn.Sequential(
    torch.nn.Linear(1, N_HIDDEN),
    torch.nn.Dropout(0.5),  # drop 50% of the neuron
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDEN, N_HIDDEN),
    torch.nn.Dropout(0.5),  # drop 50% of the neuron
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDEN, 1),
)
for t in range(500):
    pred_drop = net_dropped(x)
    loss_drop = loss_func(pred_drop, y)
    optimizer_drop.zero_grad()
    loss_drop.backward()
    optimizer_drop.step()
    if t % 10 == 0:
        # change to eval mode in order to fix drop out effect
        net_dropped.eval()  # parameters for dropout differ from train mode
        test_pred_drop = net_dropped(test_x)
        # change back to train mode
        net_dropped.train()

pytorch做Batch Normalization:

net.eval()固定整個(gè)網(wǎng)絡(luò)參數(shù),固定BN的參數(shù),moving_mean 和moving_var,不懂這個(gè)看下圖:

            if self.do_bn:
                bn = nn.BatchNorm1d(10, momentum=0.5)
                setattr(self, 'bn%i' % i, bn)   # IMPORTANT set layer to the Module
                self.bns.append(bn)
    for epoch in range(EPOCH):
        print('Epoch: ', epoch)
        for net, l in zip(nets, losses):
            net.eval()              # set eval mode to fix moving_mean and moving_var
            pred, layer_input, pre_act = net(test_x)
            net.train()             # free moving_mean and moving_var
        plot_histogram(*layer_inputs, *pre_acts)  

moving_mean 和moving_var

用tensorflow做dropout和BN時(shí)需要注意的地方

dropout和BN都有一個(gè)training的參數(shù)表明到底是train還是test, 表明test那dropout就是不dropout,BN就是固定住了BN的參數(shù);

tf_is_training = tf.placeholder(tf.bool, None)  # to control dropout when training and testing
# dropout net
d1 = tf.layers.dense(tf_x, N_HIDDEN, tf.nn.relu)
d1 = tf.layers.dropout(d1, rate=0.5, training=tf_is_training)   # drop out 50% of inputs
d2 = tf.layers.dense(d1, N_HIDDEN, tf.nn.relu)
d2 = tf.layers.dropout(d2, rate=0.5, training=tf_is_training)   # drop out 50% of inputs
d_out = tf.layers.dense(d2, 1)
for t in range(500):
    sess.run([o_train, d_train], {tf_x: x, tf_y: y, tf_is_training: True})  # train, set is_training=True
    if t % 10 == 0:
        # plotting
        plt.cla()
        o_loss_, d_loss_, o_out_, d_out_ = sess.run(
            [o_loss, d_loss, o_out, d_out], {tf_x: test_x, tf_y: test_y, tf_is_training: False} # test, set is_training=False
        )
# pytorch
    def add_layer(self, x, out_size, ac=None):
        x = tf.layers.dense(x, out_size, kernel_initializer=self.w_init, bias_initializer=B_INIT)
        self.pre_activation.append(x)
        # the momentum plays important rule. the default 0.99 is too high in this case!
        if self.is_bn: x = tf.layers.batch_normalization(x, momentum=0.4, training=tf_is_train)    # when have BN
        out = x if ac is None else ac(x)
        return out

當(dāng)BN的training的參數(shù)為train時(shí),只是表示BN的參數(shù)是可變化的,并不是代表BN會(huì)自己更新moving_mean 和moving_var,因?yàn)檫@個(gè)操作是前向更新的op,在做train之前必須確保moving_mean 和moving_var更新了,更新moving_mean 和moving_var的操作在tf.GraphKeys.UPDATE_OPS

 # !! IMPORTANT !! the moving_mean and moving_variance need to be updated,
        # pass the update_ops with control_dependencies to the train_op
        update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
        with tf.control_dependencies(update_ops):
            self.train = tf.train.AdamOptimizer(LR).minimize(self.loss)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch的batch normalize使用詳解
  • 踩坑:pytorch中eval模式下結(jié)果遠(yuǎn)差于train模式介紹
  • pytorch掉坑記錄:model.eval的作用說明

標(biāo)簽:山東 常州 蘭州 成都 六盤水 宿遷 駐馬店 江蘇

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《解決Pytorch中Batch Normalization layer踩過的坑》,本文關(guān)鍵詞  解決,Pytorch,中,Batch,Normalization,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《解決Pytorch中Batch Normalization layer踩過的坑》相關(guān)的同類信息!
  • 本頁收集關(guān)于解決Pytorch中Batch Normalization layer踩過的坑的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    一区二区三区精品| 色嗨嗨av一区二区三区| 日韩欧美亚洲一区二区| 国产高清成人在线| 亚洲成av人片在线| 国产日韩精品一区二区三区在线| 日本伦理一区二区| 国产成人免费视频| 黄色日韩网站视频| 五月激情综合网| 亚洲人妖av一区二区| 欧美成人午夜电影| 欧美另类一区二区三区| 成人精品鲁一区一区二区| 亚洲国产欧美在线| 中文字幕乱码一区二区免费| 欧美一级在线视频| 欧美日韩国产不卡| 在线国产亚洲欧美| 99re在线精品| 91网站在线播放| 国产99精品国产| 久久99精品一区二区三区| 亚洲不卡在线观看| 亚洲综合图片区| 亚洲精品免费在线| 亚洲精品视频在线观看网站| 日韩理论在线观看| 国产精品人人做人人爽人人添 | 51精品国自产在线| 91在线国产福利| 成人精品国产免费网站| 日韩精品欧美成人高清一区二区| 亚洲最新在线观看| 亚洲欧美日韩在线| 亚洲精品视频在线| 亚洲精品国产视频| 亚洲女同ⅹxx女同tv| 中文字幕欧美日韩一区| 久久久亚洲午夜电影| 2欧美一区二区三区在线观看视频| 6080亚洲精品一区二区| 欧美日韩色综合| 欧美日韩高清影院| 欧美无砖专区一中文字| 欧美精品 日韩| 日韩精品最新网址| 欧美性猛片aaaaaaa做受| 欧美性做爰猛烈叫床潮| 在线看不卡av| 日韩一本二本av| 欧美一区二区视频在线观看 | 91免费观看在线| 男女激情视频一区| 国产一区二区免费视频| 蜜桃av噜噜一区二区三区小说| 日韩黄色免费网站| 夜夜夜精品看看| 亚洲国产日产av| 免费av网站大全久久| 国产成人在线视频网站| 不卡av免费在线观看| 色婷婷综合久久久久中文| 97se亚洲国产综合自在线| 91国产福利在线| 日韩一区二区在线看| 国产精品美女久久久久久久网站| 亚洲情趣在线观看| 青青草视频一区| 国产91精品一区二区麻豆亚洲| 丁香亚洲综合激情啪啪综合| 91视频你懂的| 日韩精品一区二区三区视频播放| 一色屋精品亚洲香蕉网站| 午夜精品免费在线| 韩国精品在线观看| 91免费视频大全| 日韩精品一区二区三区四区| 日韩美女视频一区| 久久99精品久久只有精品| 成人国产精品免费| 欧美精品在线观看播放| 国产精品视频免费看| 中文字幕一区视频| 日韩国产在线观看| aaa亚洲精品一二三区| 欧美剧情片在线观看| 中文欧美字幕免费| 亚洲成av人片观看| 成人福利在线看| 日韩欧美一区电影| 亚洲精品国产视频| 国产成人精品免费在线| 欧美色区777第一页| 中文字幕久久午夜不卡| 久久成人av少妇免费| 91精品1区2区| 欧美国产日韩亚洲一区| 久久99九九99精品| 欧美二区在线观看| 亚洲欧洲成人av每日更新| 久久精品国产一区二区三| 在线亚洲高清视频| 亚洲国产高清aⅴ视频| 蜜臀久久99精品久久久画质超高清| 成人18精品视频| 欧美激情中文字幕| 日本特黄久久久高潮| 欧美亚洲综合网| 亚洲福利一区二区| 91久久精品午夜一区二区| 国产精品美女久久久久久久久久久 | 欧美一区二区三级| 亚洲一区二区av在线| 99天天综合性| 国产欧美中文在线| 国产综合久久久久久鬼色| 欧美精品乱码久久久久久按摩| 一区二区成人在线视频| 91浏览器打开| 亚洲综合网站在线观看| 欧洲色大大久久| 亚洲午夜久久久久中文字幕久| 欧美网站一区二区| 五月天激情综合网| 欧美日韩免费观看一区二区三区| 亚洲天堂成人在线观看| 91免费小视频| 亚洲成人手机在线| 日韩欧美一级精品久久| 精品系列免费在线观看| 欧美精品一区在线观看| 粉嫩一区二区三区在线看| 亚洲欧洲无码一区二区三区| 91免费观看视频| 偷拍亚洲欧洲综合| 精品国一区二区三区| 岛国一区二区三区| 亚洲综合一区二区精品导航| 欧美日韩成人综合| 麻豆精品精品国产自在97香蕉| 国产精品久久久久久久久免费丝袜 | 欧美亚洲高清一区| 韩国一区二区在线观看| 国产精品免费av| 91啦中文在线观看| 日本不卡在线视频| 国产人成一区二区三区影院| 色综合久久天天综合网| 日韩成人精品在线| www国产精品av| 91亚洲大成网污www| 亚洲成a人片在线观看中文| 精品福利一区二区三区免费视频| 91天堂素人约啪| 免费xxxx性欧美18vr| 日韩美女视频一区二区| 日韩欧美123| 97精品超碰一区二区三区| 亚洲国产精品久久一线不卡| 欧美羞羞免费网站| 国产精品69毛片高清亚洲| 亚洲精品国产无天堂网2021 | 国产欧美一区二区精品久导航| 在线精品视频免费观看| 国内精品久久久久影院一蜜桃| 亚洲午夜日本在线观看| 国产亚洲污的网站| 在线综合视频播放| 99视频一区二区| 久久99热99| 午夜a成v人精品| 国产精品成人午夜| 精品99一区二区| 在线电影院国产精品| 欧美精品一区二区三区一线天视频| 色国产综合视频| 成人手机电影网| 激情五月激情综合网| 日本不卡一二三| 亚洲国产精品麻豆| 尤物在线观看一区| 国产性色一区二区| 欧美岛国在线观看| 日韩一二三区不卡| 欧美日韩亚洲综合一区| 北岛玲一区二区三区四区| 国产一区二区三区av电影| 麻豆精品一区二区综合av| 亚洲国产一区二区视频| 亚洲乱码国产乱码精品精小说 | 一区二区三区在线高清| 国产精品免费视频网站| 国产日韩欧美不卡| 国产欧美一区二区在线观看| 亚洲精品在线一区二区| 欧美变态凌虐bdsm| 日韩欧美亚洲另类制服综合在线| 在线不卡免费欧美| 欧美日本一区二区|