婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Pytorch反向傳播中的細節-計算梯度時的默認累加操作

Pytorch反向傳播中的細節-計算梯度時的默認累加操作

熱門標簽:地圖標注自己和別人標注區別 商家地圖標注海報 海外網吧地圖標注注冊 打電話機器人營銷 聊城語音外呼系統 ai電銷機器人的優勢 孝感營銷電話機器人效果怎么樣 騰訊地圖標注沒法顯示 南陽打電話機器人

Pytorch反向傳播計算梯度默認累加

今天學習pytorch實現簡單的線性回歸,發現了pytorch的反向傳播時計算梯度采用的累加機制, 于是百度來一下,好多博客都說了累加機制,但是好多都沒有說明這個累加機制到底會有啥影響, 所以我趁著自己練習的一個例子正好直觀的看一下以及如何解決:

pytorch實現線性回歸

先附上試驗代碼來感受一下:

torch.manual_seed(6)
lr = 0.01   # 學習率
result = []

# 創建訓練數據
x = torch.rand(20, 1) * 10
y = 2 * x + (5 + torch.randn(20, 1)) 

# 構建線性回歸函數
w = torch.randn((1), requires_grad=True)
b = torch.zeros((1), requires_grad=True)
# 這里是迭代過程,為了看pytorch的反向傳播計算梯度的細節,我先迭代兩次
for iteration in range(2):

    # 前向傳播
    wx = torch.mul(w, x)
    y_pred = torch.add(wx, b)

    # 計算 MSE loss
    loss = (0.5 * (y - y_pred) ** 2).mean()
    
    # 反向傳播
    loss.backward()
    
    # 這里看一下反向傳播計算的梯度
    print("w.grad:", w.grad)
    print("b.grad:", b.grad)
    
    # 更新參數
    b.data.sub_(lr * b.grad)
    w.data.sub_(lr * w.grad)

上面的代碼比較簡單,迭代了兩次, 看一下計算的梯度結果:

w.grad: tensor([-74.6261])
b.grad: tensor([-12.5532])
w.grad: tensor([-122.9075])
b.grad: tensor([-20.9364])

然后我稍微加兩行代碼, 就是在反向傳播上面,我手動添加梯度清零操作的代碼,再感受一下結果:

torch.manual_seed(6)
lr = 0.01
result = []
# 創建訓練數據
x = torch.rand(20, 1) * 10
#print(x)
y = 2 * x + (5 + torch.randn(20, 1)) 
#print(y)
# 構建線性回歸函數
w = torch.randn((1), requires_grad=True)
#print(w)
b = torch.zeros((1), requires_grad=True)
#print(b)
for iteration in range(2):
    # 前向傳播
    wx = torch.mul(w, x)
    y_pred = torch.add(wx, b)

    # 計算 MSE loss
    loss = (0.5 * (y - y_pred) ** 2).mean()
    
    # 由于pytorch反向傳播中,梯度是累加的,所以如果不想先前的梯度影響當前梯度的計算,需要手動清0
     if iteration > 0: 
        w.grad.data.zero_()
        b.grad.data.zero_()
    
    # 反向傳播
    loss.backward()
    
    # 看一下梯度
    print("w.grad:", w.grad)
    print("b.grad:", b.grad)
    
    # 更新參數
    b.data.sub_(lr * b.grad)
    w.data.sub_(lr * w.grad)

w.grad: tensor([-74.6261])
b.grad: tensor([-12.5532])
w.grad: tensor([-48.2813])
b.grad: tensor([-8.3831])

從上面可以發現,pytorch在反向傳播的時候,確實是默認累加上了上一次求的梯度, 如果不想讓上一次的梯度影響自己本次梯度計算的話,需要手動的清零。

但是, 如果不進行手動清零的話,會有什么后果呢? 我在這次線性回歸試驗中,遇到的后果就是loss值反復的震蕩不收斂。下面感受一下:

torch.manual_seed(6)
lr = 0.01
result = []
# 創建訓練數據
x = torch.rand(20, 1) * 10
#print(x)
y = 2 * x + (5 + torch.randn(20, 1)) 
#print(y)
# 構建線性回歸函數
w = torch.randn((1), requires_grad=True)
#print(w)
b = torch.zeros((1), requires_grad=True)
#print(b)

for iteration in range(1000):
    # 前向傳播
    wx = torch.mul(w, x)
    y_pred = torch.add(wx, b)

    # 計算 MSE loss
    loss = (0.5 * (y - y_pred) ** 2).mean()
#     print("iteration {}: loss {}".format(iteration, loss))
    result.append(loss)
    
    # 由于pytorch反向傳播中,梯度是累加的,所以如果不想先前的梯度影響當前梯度的計算,需要手動清0
    #if iteration > 0: 
    #    w.grad.data.zero_()
    #    b.grad.data.zero_()
  
    # 反向傳播
    loss.backward()
 
    # 更新參數
    b.data.sub_(lr * b.grad)
    w.data.sub_(lr * w.grad)
    
    if loss.data.numpy()  1:
        break
   plt.plot(result)

上面的代碼中,我沒有進行手動清零,迭代1000次, 把每一次的loss放到來result中, 然后畫出圖像,感受一下結果:

接下來,我把手動清零的注釋打開,進行每次迭代之后的手動清零操作,得到的結果:

可以看到,這個才是理想中的反向傳播求導,然后更新參數后得到的loss值的變化。

總結

這次主要是記錄一下,pytorch在進行反向傳播計算梯度的時候的累加機制到底是什么樣子? 至于為什么采用這種機制,我也搜了一下,大部分給出的結果是這樣子的:

但是如果不想累加的話,可以采用手動清零的方式,只需要在每次迭代時加上即可

w.grad.data.zero_()
b.grad.data.zero_()

另外, 在搜索資料的時候,在一篇博客上看到兩個不錯的線性回歸時pytorch的計算圖在這里借用一下:


以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch 梯度NAN異常值的解決方案
  • pytorch 權重weight 與 梯度grad 可視化操作
  • PyTorch 如何檢查模型梯度是否可導
  • 淺談pytorch中為什么要用 zero_grad() 將梯度清零
  • PyTorch梯度裁剪避免訓練loss nan的操作
  • PyTorch 如何自動計算梯度
  • Pytorch獲取無梯度TorchTensor中的值

標簽:六盤水 南寧 聊城 揚州 撫州 迪慶 牡丹江 楊凌

巨人網絡通訊聲明:本文標題《Pytorch反向傳播中的細節-計算梯度時的默認累加操作》,本文關鍵詞  Pytorch,反向,傳播,中的,細節,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Pytorch反向傳播中的細節-計算梯度時的默認累加操作》相關的同類信息!
  • 本頁收集關于Pytorch反向傳播中的細節-計算梯度時的默認累加操作的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 景谷| 麦盖提县| 杨浦区| 乐至县| 井研县| 山阴县| 嘉定区| 河间市| 都江堰市| 镇康县| 安泽县| 泸定县| 巴中市| 宜宾市| 库尔勒市| 高要市| 台湾省| 通州区| 五莲县| 页游| 万宁市| 桐庐县| 砚山县| 开远市| 江孜县| 扎鲁特旗| 长宁县| 正阳县| 大渡口区| 梁山县| 琼海市| 县级市| 虎林市| 南昌市| 宜川县| 舟曲县| 璧山县| 平果县| 盘锦市| 新安县| 朝阳区|