婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 聊聊PyTorch中eval和no_grad的關系

聊聊PyTorch中eval和no_grad的關系

熱門標簽:陜西金融外呼系統 唐山智能外呼系統一般多少錢 白銀外呼系統 海南400電話如何申請 激戰(zhàn)2地圖標注 公司電話機器人 哈爾濱ai外呼系統定制 廣告地圖標注app 騰訊外呼線路

首先這兩者有著本質上區(qū)別

model.eval()是用來告知model內的各個layer采取eval模式工作。這個操作主要是應對諸如dropout和batchnorm這些在訓練模式下需要采取不同操作的特殊layer。訓練和測試的時候都可以開啟。

torch.no_grad()則是告知自動求導引擎不要進行求導操作。這個操作的意義在于加速計算、節(jié)約內存。但是由于沒有gradient,也就沒有辦法進行backward。所以只能在測試的時候開啟。

所以在evaluate的時候,需要同時使用兩者。

model = ...
dataset = ...
loss_fun = ...

# training
lr=0.001
model.train()
for x,y in dataset:
 model.zero_grad()
 p = model(x)
 l = loss_fun(p, y)
 l.backward()
 for p in model.parameters():
  p.data -= lr*p.grad
 
# evaluating
sum_loss = 0.0
model.eval()
with torch.no_grad():
 for x,y in dataset:
  p = model(x)
  l = loss_fun(p, y)
  sum_loss += l
print('total loss:', sum_loss)

另外no_grad還可以作為函數是修飾符來用,從而簡化代碼。

def train(model, dataset, loss_fun, lr=0.001):
 model.train()
 for x,y in dataset:
  model.zero_grad()
  p = model(x)
  l = loss_fun(p, y)
  l.backward()
  for p in model.parameters():
   p.data -= lr*p.grad
 
@torch.no_grad()
def test(model, dataset, loss_fun):
 sum_loss = 0.0
 model.eval()
 for x,y in dataset:
  p = model(x)
  l = loss_fun(p, y)
  sum_loss += l
 return sum_loss

# main block:
model = ...
dataset = ...
loss_fun = ...

# training
train()
# test
sum_loss = test()
print('total loss:', sum_loss)

補充:pytorch中model.train、model.eval以及torch.no_grad的用法

1、model.train()

啟用 BatchNormalization 和 Dropout

model.train() 讓model變成訓練模式,此時 dropout和batch normalization的操作在訓練起到防止網絡過擬合的問題

2、model.eval()

不啟用 BatchNormalization 和 Dropout

model.eval(),pytorch會自動把BN和DropOut固定住,而用訓練好的值。不然的話,一旦test的batch_size過小,很容易就會被BN層導致所生成圖片顏色失真極大

訓練完train樣本后,生成的模型model要用來測試樣本。在model(test)之前,需要加上model.eval(),否則的話,有輸入數據,即使不訓練,它也會改變權值。這是model中含有batch normalization層所帶來的的性質。

對于在訓練和測試時為什么要這樣做,可以從下面兩段話理解:

在訓練的時候, 會計算一個batch內的mean 和var, 但是因為是小batch小batch的訓練的,所以會采用加權或者動量的形式來將每個batch的 mean和var來累加起來,也就是說再算當前的batch的時候,其實當前的權重只是占了0.1, 之前所有訓練過的占了0.9的權重,這樣做的好處是不至于因為某一個batch太過奇葩而導致的訓練不穩(wěn)定。

好,現在假設訓練完成了, 那么在整個訓練集上面也得到了一個最終的”mean 和var”, BN層里面的參數也學習完了(如果指定學習的話),而現在需要測試了,測試的時候往往會一張圖一張圖的去測,這時候沒有batch而言了,對單獨一個數據做 mean和var是沒有意義的, 那么怎么辦,實際上在測試的時候BN里面用的mean和var就是訓練結束后的mean_final 和 val_final. 也可說是在測試的時候BN就是一個變換。所以在用pytorch的時候要注意這一點,在訓練之前要有model.train() 來告訴網絡現在開啟了訓練模式,在eval的時候要用”model.eval()”, 用來告訴網絡現在要進入測試模式了.因為這兩種模式下BN的作用是不同的。

3、torch.no_grad()

這條語句的作用是:在測試時不進行梯度的計算,這樣可以在測試時有效減小顯存的占用,以免發(fā)生顯存溢出(OOM)。

這條語句通常加在網絡預測的那條代碼上。

4、pytorch中model.eval()和“with torch.no_grad()區(qū)別

兩者區(qū)別

在PyTorch中進行validation時,會使用model.eval()切換到測試模式,在該模式下,

主要用于通知dropout層和batchnorm層在train和val模式間切換

在train模式下,dropout網絡層會按照設定的參數p設置保留激活單元的概率(保留概率=p); batchnorm層會繼續(xù)計算數據的mean和var等參數并更新。

在val模式下,dropout層會讓所有的激活單元都通過,而batchnorm層會停止計算和更新mean和var,直接使用在訓練階段已經學出的mean和var值。

該模式不會影響各層的gradient計算行為,即gradient計算和存儲與training模式一樣,只是不進行反傳(backprobagation)

而with torch.zero_grad()則主要是用于停止autograd模塊的工作,以起到加速和節(jié)省顯存的作用,具體行為就是停止gradient計算,從而節(jié)省了GPU算力和顯存,但是并不會影響dropout和batchnorm層的行為。

使用場景

如果不在意顯存大小和計算時間的話,僅僅使用model.eval()已足夠得到正確的validation的結果;而with torch.zero_grad()則是更進一步加速和節(jié)省gpu空間(因為不用計算和存儲gradient),從而可以更快計算,也可以跑更大的batch來測試。

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • pytorch掉坑記錄:model.eval的作用說明
  • pytorch:model.train和model.eval用法及區(qū)別詳解
  • 解決Pytorch中的神坑:關于model.eval的問題

標簽:黑龍江 常德 上海 鷹潭 黔西 惠州 四川 益陽

巨人網絡通訊聲明:本文標題《聊聊PyTorch中eval和no_grad的關系》,本文關鍵詞  聊聊,PyTorch,中,eval,和,grad,;如發(fā)現本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《聊聊PyTorch中eval和no_grad的關系》相關的同類信息!
  • 本頁收集關于聊聊PyTorch中eval和no_grad的關系的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    欧美精品日韩综合在线| 国产欧美一区二区精品婷婷 | 国产精品少妇自拍| 亚洲国产一区二区视频| 国产成人激情av| 日韩一区二区麻豆国产| 亚洲色图视频免费播放| 久久9热精品视频| 在线看不卡av| 国产欧美日产一区| 男人操女人的视频在线观看欧美| 99久精品国产| 国产女人18毛片水真多成人如厕| 日本午夜精品一区二区三区电影 | 91香蕉视频在线| 久久精品一区二区三区四区| 美女网站在线免费欧美精品| 777午夜精品视频在线播放| 亚洲精品视频免费观看| 不卡一区在线观看| 欧美激情一区二区在线| 国产成人午夜电影网| 久久精品一区二区三区av| 久久精品国产一区二区三区免费看| 精品1区2区3区| 亚洲一区二区在线免费看| 99久久婷婷国产综合精品电影 | 日韩国产一二三区| 在线播放欧美女士性生活| 亚洲自拍与偷拍| 在线观看日韩电影| 亚洲国产日韩在线一区模特| 在线观看日韩av先锋影音电影院| 亚洲美女偷拍久久| 在线视频观看一区| 亚洲成a人片综合在线| 欧美日韩精品三区| 视频在线在亚洲| 91麻豆精品国产自产在线观看一区| 午夜精品福利一区二区三区av| 欧美日韩一区二区三区四区五区| 国产美女精品一区二区三区| 久久亚洲春色中文字幕久久久| 国产九九视频一区二区三区| 国产嫩草影院久久久久| 99视频一区二区三区| 亚洲欧洲日韩女同| 欧美日韩一区二区在线观看视频| 三级欧美韩日大片在线看| 欧美tickling网站挠脚心| 国产精品中文字幕日韩精品| 欧美国产精品一区二区| 91在线你懂得| 日韩电影在线观看电影| 久久久久久久久久久久久女国产乱| 国产精品羞羞答答xxdd| 亚洲精品亚洲人成人网| 欧美一级欧美三级在线观看| 国产成人综合自拍| 亚洲一区二区高清| 精品精品国产高清一毛片一天堂| www.66久久| 蜜乳av一区二区三区| 亚洲国产精品传媒在线观看| 欧美三级视频在线| 国产不卡在线视频| 日韩国产成人精品| 国产精品久久一卡二卡| 日韩一区和二区| 91免费观看视频在线| 美女免费视频一区二区| 亚洲天堂久久久久久久| 日韩一级片网站| 91小宝寻花一区二区三区| 欧美一区二区在线视频| 成人妖精视频yjsp地址| 日韩av在线发布| ...av二区三区久久精品| 欧美成人一区二区三区在线观看| 91视视频在线观看入口直接观看www | 日韩福利视频导航| 国产精品日产欧美久久久久| 日韩视频免费直播| 欧美最新大片在线看 | 七七婷婷婷婷精品国产| 国产精品不卡一区| 久久丝袜美腿综合| 欧美少妇性性性| 91亚洲国产成人精品一区二区三 | 九九久久精品视频| 天堂精品中文字幕在线| 亚洲精品免费一二三区| 国产精品大尺度| 欧美国产日韩亚洲一区| 欧美精品一区二区不卡| 欧美一级二级三级乱码| 欧美疯狂做受xxxx富婆| 欧美色倩网站大全免费| 一本色道久久加勒比精品| 99久久精品国产麻豆演员表| 国产馆精品极品| 国产真实乱对白精彩久久| 日本不卡123| 男男视频亚洲欧美| 奇米影视在线99精品| 日韩成人一区二区| 另类调教123区 | 国产黑丝在线一区二区三区| 国产在线日韩欧美| 黄页网站大全一区二区| 国产资源在线一区| 国产盗摄一区二区| 成人av手机在线观看| 91农村精品一区二区在线| 色综合久久六月婷婷中文字幕| 97se亚洲国产综合自在线观| 91麻豆免费看| 91高清在线观看| 欧美性色黄大片| 欧美日韩在线播| 欧美一区二区三区成人| 欧美电影免费观看高清完整版在线 | 日本一区二区三级电影在线观看 | 久久久久青草大香线综合精品| 精品国产免费视频| 国产精品午夜免费| 成人免费视频在线观看| 亚洲综合在线视频| 日韩精品成人一区二区在线| 久久99国产精品免费| 国产高清一区日本| 色婷婷综合久久久中文字幕| 欧美日韩一区久久| 久久亚洲一区二区三区明星换脸 | 欧美系列亚洲系列| 欧美成人乱码一区二区三区| 久久精品人人做人人爽人人| 国产精品动漫网站| 五月婷婷综合在线| 国产麻豆精品在线| 色偷偷成人一区二区三区91 | 精品视频一区二区三区免费| 欧美一级高清片| 中文字幕一区二区三区蜜月| 图片区日韩欧美亚洲| 国产精品亚洲午夜一区二区三区| 91免费版在线看| 久久久综合精品| 一区二区三区欧美激情| 激情综合色播激情啊| 在线一区二区三区四区五区| 精品久久久久久久久久久院品网 | 一区二区国产盗摄色噜噜| 裸体歌舞表演一区二区| 99视频国产精品| 日韩三级视频在线观看| 一区二区在线观看不卡| 国产高清精品在线| 欧美一区二区国产| 一区二区三区成人| 高清国产午夜精品久久久久久| 91激情在线视频| 国产日本欧洲亚洲| 麻豆成人免费电影| 欧美日韩精品一二三区| 亚洲三级电影网站| 高清视频一区二区| 欧美精品一区二区三区蜜臀| 亚洲va天堂va国产va久| 成人性生交大片免费看中文网站| 日韩一级大片在线| 亚洲第一二三四区| 91啪在线观看| 国产精品免费久久| 国产尤物一区二区在线| 在线成人免费视频| 一区二区三区中文在线| 成人h动漫精品一区二| 久久久精品黄色| 精品一区二区三区久久| 91精品国产欧美一区二区18 | 一区二区三区四区中文字幕| 国产·精品毛片| 久久久精品综合| 国产伦精品一区二区三区在线观看| 欧美电影在线免费观看| 午夜国产不卡在线观看视频| 欧美视频三区在线播放| 亚洲欧美日韩国产手机在线| www.成人网.com| 亚洲另类色综合网站| 色拍拍在线精品视频8848| 亚洲品质自拍视频| 欧美在线一区二区三区| 一区二区三区在线观看动漫| 色综合激情久久| 亚洲一区二区av在线| 欧美电影一区二区| 看片的网站亚洲| 久久综合九色综合97_久久久|