婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > tensorflow中的梯度求解及梯度裁剪操作

tensorflow中的梯度求解及梯度裁剪操作

熱門標簽:手機網頁嵌入地圖標注位置 地圖標注線上如何操作 開封語音外呼系統代理商 天津電話機器人公司 電銷機器人的風險 河北防封卡電銷卡 400電話辦理哪種 開封自動外呼系統怎么收費 應電話機器人打電話違法嗎

1. tensorflow中梯度求解的幾種方式

1.1 tf.gradients

tf.gradients(
    ys,
    xs,
    grad_ys=None,
    name='gradients',
    colocate_gradients_with_ops=False,
    gate_gradients=False,
    aggregation_method=None,
    stop_gradients=None,
    unconnected_gradients=tf.UnconnectedGradients.NONE
)

計算ys關于xs的梯度,tf.gradients返回的結果是一個長度為len(xs)的tensor列表list,例如

tf.gradients(y, [x1, x2, x3]返回[dy/dx1, dy/dx2, dy/dx3]

當y與x無關時,即graph無x到y的路徑, 則求y關于x的梯度時返回[None];參數stop_gradients指定的變量對當前梯度求解而言, 梯度求解將止于這些變量。

a = tf.constant(0.)
b = 2 * a
g = tf.gradients(a + b, [a, b], stop_gradients=[a, b]) #梯度計算不再追溯a,b之前的變量

輸出:

In: sess.run(g)

out:[1.0, 1.0]

如果不設置stop_gradients參數則反向傳播梯度計算將追溯到最開始的值a,輸出結果為:

In : sess.run(g)

Out: [3.0, 1.0]

1.2 optimizer.compute_gradients

compute_gradients(
    loss,
    var_list=None,
    gate_gradients=GATE_OP,
    aggregation_method=None,
    colocate_gradients_with_ops=False,
    grad_loss=None
)

optimizer.compute_gradients是tf.gradients的封裝,作用相同,但是tfgradients只返回梯度,compute_gradients返回梯度和可導的變量;tf.compute_gradients是optimizer.minimize()的第一步,optimizer.compute_gradients返回一個[(gradient, variable),…]的元組列表,其中gradient是tensor。

直觀上,optimizer.compute_gradients只比tf.gradients多了一個variable輸出。

optimizer = tf.train.GradientDescentOptimizer(learning_rate = 1.0)
self.train_op = optimizer.minimize(self.cost)
sess.run([train_op], feed_dict={x:data, y:labels})

在這個過程中,調用minimize方法的時候,底層進行的工作包括:

(1) 使用tf.optimizer.compute_gradients計算trainable_variables 集合中所有參數的梯度

(2) 用optimizer.apply_gradients來更新計算得到的梯度對應的變量

上面代碼等價于下面代碼

optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)
grads_and_vars = optimizer.compute_gradients(loss)
train_op = optimizer.apply_gradients(grads_and_vars)

1.3 tf.stop_gradient

tf.stop_gradient(
    input,
    name=None
)

tf.stop_gradient阻止input的變量參與梯度計算,即在梯度計算的過程中屏蔽input之前的graph。

返回:關于input的梯度

2. 梯度裁剪

如果我們希望對梯度進行截斷,那么就要自己計算出梯度,然后進行clip,最后應用到變量上,代碼如下所示,接下來我們一一介紹其中的主要步驟

#return a list of trainable variable in you model
params = tf.trainable_variables()

#create an optimizer
opt = tf.train.GradientDescentOptimizer(self.learning_rate)

#compute gradients for params
gradients = tf.gradients(loss, params)

#process gradients
clipped_gradients, norm = tf.clip_by_global_norm(gradients,max_gradient_norm)

train_op = opt.apply_gradients(zip(clipped_gradients, params)))

2.1 tf.clip_by_global_norm介紹

tf.clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None)

t_list 表示梯度張量

clip_norm是截取的比率

在應用這個函數之后,t_list[i]的更新公示變為:

global_norm = sqrt(sum(l2norm(t)**2 for t in t_list))
t_list[i] = t_list[i] * clip_norm / max(global_norm, clip_norm)

也就是分為兩步:

(1) 計算所有梯度的平方和global_norm

(2) 如果梯度平方和 global_norm 超過我們指定的clip_norm,那么就對梯度進行縮放;否則就按照原本的計算結果

梯度裁剪實例2

loss = w*x*x
optimizer = tf.train.GradientDescentOptimizer(0.1)
grads_and_vars = optimizer.compute_gradients(loss,[w,x])
grads = tf.gradients(loss,[w,x])
# 修正梯度
for i,(gradient,var) in enumerate(grads_and_vars):
    if gradient is not None:
        grads_and_vars[i] = (tf.clip_by_norm(gradient,5),var)
train_op = optimizer.apply_gradients(grads_and_vars)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(grads_and_vars))
     # 梯度修正前[(9.0, 2.0), (12.0, 3.0)];梯度修正后 ,[(5.0, 2.0), (5.0, 3.0)]
    print(sess.run(grads))  #[9.0, 12.0],
    print(train_op)

補充:tensorflow框架中幾種計算梯度的方式

1. tf.gradients

tf.gradients(
    ys,
    xs,
    grad_ys=None,
    name='gradients',
    colocate_gradients_with_ops=False,
    gate_gradients=False,
    aggregation_method=None,
    stop_gradients=None,
    unconnected_gradients=tf.UnconnectedGradients.NONE
)

計算ys關于xs的梯度,tf.gradients返回的結果是一個長度為len(xs)的Tensor列表list,每個張量為sum(dy/dx),即ys關于xs的導數。

例子:

tf.gradients(y, [x1, x2, x3]返回[dy/dx1, dy/dx2, dy/dx3]

當y與x無關時,即graph無x到y的路徑, 則求y關于x的梯度時返回[None]

參數stop_gradients指定的變量對當前梯度求解而言, 梯度求解將止于這些變量。

實例:

a = tf.constant(0.)
b = 2 * a
g = tf.gradients(a + b, [a, b], stop_gradients=[a, b]) #梯度計算不再追溯a,b之前的變量

輸出:

In: sess.run(g)

out:[1.0, 1.0]

如果不設置stop_gradients參數則反向傳播梯度計算將追溯到最開始的值a,輸出結果為:

In : sess.run(g)

Out: [3.0, 1.0]

2. optimizer.compute_gradients

compute_gradients(
    loss,
    var_list=None,
    gate_gradients=GATE_OP,
    aggregation_method=None,
    colocate_gradients_with_ops=False,
    grad_loss=None
)

optimizer.compute_gradients是tf.gradients的封裝1.

是optimizer.minimize()的第一步,返回(gradient, variable)的列表,其中gradient是tensor。

直觀上,optimizer.compute_gradients只比tf.gradients多了一個variable輸出。

3. tf.stop_gradient

tf.stop_gradient(
    input,
    name=None
)

tf.stop_gradient阻止input的變量參與梯度計算,即在梯度計算的過程中屏蔽input之前的graph。

返回:關于input的梯度

應用:

1、EM算法,其中M步驟不應涉及通過E步驟的輸出的反向傳播。

2、Boltzmann機器的對比散度訓練,在區分能量函數時,訓練不得反向傳播通過模型生成樣本的圖形。

3、對抗性訓練,通過對抗性示例生成過程不會發生反向訓練。

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 使用tensorflow 實現反向傳播求導
  • TensorFlow的自動求導原理分析
  • Tensorflow 如何從checkpoint文件中加載變量名和變量值
  • Python3安裝tensorflow及配置過程
  • 解決tensorflow 與keras 混用之坑
  • tensorflow中的數據類型dtype用法說明

標簽:宿遷 駐馬店 山東 常州 江蘇 成都 六盤水 蘭州

巨人網絡通訊聲明:本文標題《tensorflow中的梯度求解及梯度裁剪操作》,本文關鍵詞  tensorflow,中的,梯度,求解,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《tensorflow中的梯度求解及梯度裁剪操作》相關的同類信息!
  • 本頁收集關于tensorflow中的梯度求解及梯度裁剪操作的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    五月婷婷激情综合| 一区二区三区蜜桃网| 欧美极品另类videosde| 免费成人av在线播放| 69成人精品免费视频| 亚洲国产成人高清精品| 欧美性极品少妇| 午夜精品久久久久久久99樱桃| 色婷婷精品久久二区二区蜜臂av| 亚洲日本丝袜连裤袜办公室| 成人免费av在线| 国产精品日产欧美久久久久| 99精品视频在线观看| 亚洲综合男人的天堂| 欧美日韩一区二区三区在线 | 久久精品夜夜夜夜久久| 国精产品一区一区三区mba视频| 精品国产乱码久久久久久闺蜜 | 精品视频999| 免费一级片91| 国产欧美日韩综合| 欧美综合色免费| 日本aⅴ精品一区二区三区| 精品少妇一区二区| 99久久国产综合精品色伊| 亚洲一区中文在线| 久久久久久久av麻豆果冻| 91片在线免费观看| 另类欧美日韩国产在线| 亚洲欧洲精品成人久久奇米网| 欧美片在线播放| 福利一区二区在线| 亚洲一区二区三区四区在线| 亚洲精品在线观看网站| 91成人免费电影| 久久精品国产免费看久久精品| 中文字幕欧美日本乱码一线二线| 欧美日韩一区 二区 三区 久久精品| 久久丁香综合五月国产三级网站 | 国产欧美精品在线观看| 欧美日韩在线播放三区| 福利一区在线观看| 日本系列欧美系列| 亚洲精品成人精品456| 久久久久久久综合色一本| 欧美日韩不卡在线| 色综合中文综合网| 午夜精品福利一区二区三区av | 99久久亚洲一区二区三区青草| 日韩电影网1区2区| 夜夜精品视频一区二区| 国产精品电影一区二区三区| 337p日本欧洲亚洲大胆色噜噜| 欧美日韩一区二区欧美激情 | caoporn国产一区二区| 激情欧美一区二区| 日韩精品免费专区| 亚洲成人资源网| 亚洲国产综合色| 亚洲毛片av在线| 亚洲精品视频在线看| 中文字幕一区av| 中文字幕 久热精品 视频在线| 久久久久久夜精品精品免费| 欧美成人精品3d动漫h| 日韩欧美久久一区| 在线电影欧美成精品| 欧美精品色一区二区三区| 欧美日韩一区二区电影| 欧美日韩一本到| 欧美乱熟臀69xxxxxx| 欧美美女bb生活片| 日韩一级成人av| 久久久亚洲高清| 国产精品久久久久久久久免费樱桃 | 久久久久久久综合色一本| 日韩女优制服丝袜电影| 精品处破学生在线二十三| 精品国产第一区二区三区观看体验| 欧美一级专区免费大片| 精品久久久三级丝袜| 久久久av毛片精品| 国产精品欧美一区二区三区| 成人免费在线观看入口| 亚洲小少妇裸体bbw| 美女一区二区久久| 国内成人精品2018免费看| 国产高清精品在线| 一本久道中文字幕精品亚洲嫩| 欧美综合在线视频| 2022国产精品视频| 亚洲日本在线天堂| 麻豆精品在线播放| 99久久精品国产导航| 欧美一区二区三区婷婷月色| 国产日韩欧美电影| 亚洲成a人片在线不卡一二三区 | 亚洲欧美一区二区在线观看| 亚洲综合区在线| 国产麻豆欧美日韩一区| 在线日韩av片| 精品国产污网站| 亚洲乱码国产乱码精品精小说| 日韩激情视频网站| 97精品久久久久中文字幕| 91精品婷婷国产综合久久 | 一区二区在线观看免费视频播放| 日本中文一区二区三区| 成人午夜电影小说| 91.com在线观看| 中文字幕一区二区三区在线观看| 日韩经典一区二区| 91伊人久久大香线蕉| 欧美大片免费久久精品三p| 中文字幕一区二区视频| 久久 天天综合| 一本大道综合伊人精品热热| 欧美精品一区男女天堂| 亚洲成人一区在线| 91丨九色丨尤物| 日本一区二区视频在线| 日韩电影在线看| 一本到不卡精品视频在线观看| 国产人久久人人人人爽| 免费久久精品视频| 欧美理论电影在线| 亚洲欧美日韩中文字幕一区二区三区| 国产一区二区三区精品欧美日韩一区二区三区 | 美女视频黄a大片欧美| 色吧成人激情小说| 中文在线一区二区| 国产精品18久久久久久vr| 欧美一区二区精品在线| 亚洲成人三级小说| 精品视频在线免费观看| 一区二区三区精密机械公司| 成人国产电影网| 国产精品丝袜91| 成人av在线资源| 国产精品美女一区二区三区| 不卡视频在线看| 亚洲日本免费电影| 91国产精品成人| 亚洲一区二区三区精品在线| 欧美日韩二区三区| 老鸭窝一区二区久久精品| 久久人人97超碰com| 成人午夜精品在线| 亚洲欧美一区二区三区极速播放| 99re在线精品| 亚洲成人动漫在线观看| 91精品国产综合久久香蕉的特点| 麻豆精品视频在线| 精品国产精品网麻豆系列| 国产成人精品亚洲777人妖 | 久久久久国产精品厨房| 国产毛片精品视频| 中文字幕在线视频一区| 91天堂素人约啪| 亚洲成年人影院| xnxx国产精品| 色综合视频一区二区三区高清| 亚洲一级电影视频| 欧美zozozo| 91麻豆免费在线观看| 日本伊人精品一区二区三区观看方式| 日韩免费高清av| 波波电影院一区二区三区| 丝袜国产日韩另类美女| 久久久精品tv| 欧美私模裸体表演在线观看| 韩国精品主播一区二区在线观看 | 国产无人区一区二区三区| 99视频一区二区三区| 午夜视频一区二区三区| 久久精品一区八戒影视| 欧美日韩一区 二区 三区 久久精品| 美女一区二区三区| 亚洲美女屁股眼交3| 2023国产精品自拍| 欧美亚洲高清一区| 国产精品一区二区在线播放| 亚洲电影一级片| 国产女同互慰高潮91漫画| 欧美日韩电影在线播放| 成人美女视频在线观看18| 午夜视频在线观看一区二区 | 欧美高清在线一区| 日韩视频一区二区三区在线播放| 99re这里只有精品首页| 国产乱子伦视频一区二区三区| 亚洲成av人片在线观看无码| 国产精品视频yy9299一区| 日韩欧美亚洲一区二区| 欧美吻胸吃奶大尺度电影| 成人精品免费看| 国产乱码精品一区二区三区忘忧草| 午夜久久久久久| 一区二区三区不卡在线观看| 中文字幕一区二区三区乱码在线 |