婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch 如何打印網絡回傳梯度

pytorch 如何打印網絡回傳梯度

熱門標簽:陜西金融外呼系統 白銀外呼系統 激戰2地圖標注 騰訊外呼線路 哈爾濱ai外呼系統定制 公司電話機器人 廣告地圖標注app 海南400電話如何申請 唐山智能外呼系統一般多少錢

需求:

打印梯度,檢查網絡學習情況

net = your_network().cuda()
def train():
 ...
 outputs = net(inputs)
    loss = criterion(outputs, targets)
    loss.backward()
 for name, parms in net.named_parameters(): 
  print('-->name:', name, '-->grad_requirs:',parms.requires_grad, \

   ' -->grad_value:',parms.grad)
 ...

打印結果如下:

name表示網絡參數的名字; parms.requires_grad 表示該參數是否可學習,是不是frozen的; parm.grad 打印該參數的梯度值。

補充:pytorch的梯度計算

看代碼吧~

import torch
from torch.autograd import Variable
x = torch.Tensor([[1.,2.,3.],[4.,5.,6.]])  #grad_fn是None
x = Variable(x, requires_grad=True)
y = x + 2
z = y*y*3
out = z.mean()
#x->y->z->out
print(x)
print(y)
print(z)
print(out)
#結果:
tensor([[1., 2., 3.],
        [4., 5., 6.]], requires_grad=True)
tensor([[3., 4., 5.],
        [6., 7., 8.]], grad_fn=AddBackward>)
tensor([[ 27.,  48.,  75.],
        [108., 147., 192.]], grad_fn=MulBackward>)
tensor(99.5000, grad_fn=MeanBackward1>)

若是關于graph leaves求導的結果變量是一個標量,那么gradient默認為None,或者指定為“torch.Tensor([1.0])”

若是關于graph leaves求導的結果變量是一個向量,那么gradient是不能缺省的,要是和該向量同緯度的tensor

out.backward()
print(x.grad)
#結果:
tensor([[3., 4., 5.],
        [6., 7., 8.]])
#如果是z關于x求導就必須指定gradient參數:
gradients = torch.Tensor([[2.,1.,1.],[1.,1.,1.]])
z.backward(gradient=gradients)
#若z不是一個標量,那么就先構造一個標量的值:L = torch.sum(z*gradient),再關于L對各個leaf Variable計算梯度
#對x關于L求梯度
x.grad
#結果:
tensor([[36., 24., 30.],
        [36., 42., 48.]])

錯誤情況

z.backward()
print(x.grad) 
#報錯:RuntimeError: grad can be implicitly created only for scalar outputs只能為標量創建隱式變量
    
x1 = Variable(torch.Tensor([[1.,2.,3.],[4.,5.,6.]])) 
x2 = Variable(torch.arange(4).view(2,2).type(torch.float), requires_grad=True)
c = x2.mm(x1)
c.backward(torch.ones_like(c))
# c.backward()
#RuntimeError: grad can be implicitly created only for scalar outputs
print(x2.grad)

從上面的例子中,out是常量,可以默認創建隱變量,如果反向傳播的不是常量,要知道該矩陣的具體值,在網絡中就是loss矩陣,方向傳播的過程中就是拿該歸一化的損失乘梯度來更新各神經元的參數。

看到一個博客這樣說:loss = criterion(outputs, labels)對應loss += (label[k] - h) * (label[k] - h) / 2

就是求loss(其實我覺得這一步不用也可以,反向傳播時用不到loss值,只是為了讓我們知道當前的loss是多少)

我認為一定是要求loss的具體值,才能對比閾值進行分類,通過非線性激活函數,判斷是否激活。

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 淺談pytorch中為什么要用 zero_grad() 將梯度清零
  • PyTorch梯度裁剪避免訓練loss nan的操作
  • PyTorch 如何自動計算梯度
  • Pytorch獲取無梯度TorchTensor中的值
  • pytorch損失反向傳播后梯度為none的問題
  • PyTorch 如何檢查模型梯度是否可導

標簽:益陽 鷹潭 四川 惠州 常德 黔西 黑龍江 上海

巨人網絡通訊聲明:本文標題《pytorch 如何打印網絡回傳梯度》,本文關鍵詞  pytorch,如何,打印,網絡,回傳,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch 如何打印網絡回傳梯度》相關的同類信息!
  • 本頁收集關于pytorch 如何打印網絡回傳梯度的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 黄龙县| 岐山县| 东兰县| 长白| 揭东县| 娱乐| 隆子县| 中宁县| 临夏市| 衢州市| 汕头市| 伊金霍洛旗| 图木舒克市| 中方县| 皮山县| 福泉市| 海兴县| 昌黎县| 寻乌县| 镇江市| 政和县| 宜昌市| 绥阳县| 久治县| 龙里县| 崇左市| 满洲里市| 亚东县| 连平县| 汾阳市| 雷州市| 宿迁市| 珠海市| 南华县| 泗阳县| 恭城| 文昌市| 百色市| 宣恩县| 松桃| 同仁县|