婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch中LN(LayerNorm)及Relu和其變相的輸出操作

pytorch中LN(LayerNorm)及Relu和其變相的輸出操作

熱門標簽:開封語音外呼系統代理商 電銷機器人的風險 天津電話機器人公司 地圖標注線上如何操作 開封自動外呼系統怎么收費 400電話辦理哪種 河北防封卡電銷卡 手機網頁嵌入地圖標注位置 應電話機器人打電話違法嗎

主要就是了解一下pytorch中的使用layernorm這種歸一化之后的數據變化,以及數據使用relu,prelu,leakyrelu之后的變化。

import torch
import torch.nn as nn
import torch.nn.functional as F
class model(nn.Module):
    def __init__(self):
        super(model, self).__init__()
        self.LN=nn.LayerNorm(10,eps=0,elementwise_affine=True)
        self.PRelu=nn.PReLU(init=0.25)
        self.Relu=nn.ReLU()
        self.LeakyReLU=nn.LeakyReLU(negative_slope=0.01,inplace=False)
    def forward(self,input ):
        out=self.LN(input)
        print("LN:",out)
        out1=self.PRelu(out)
        print("PRelu:",out1)
        out2=self.Relu(out)
        print("Relu:",out2)
        out3=self.LeakyReLU(out)
        print("LeakyRelu:",out3)
        return out
tensor=torch.tensor([-0.9,0.1,0,-0.1,0.9,-0.4,0.9,-0.5,0.8,0.1])
net=model()
print(tensor)
net(tensor)

輸出:

tensor([-0.9000,  0.1000,  0.0000, -0.1000,  0.9000, -0.4000,  0.9000, -0.5000,
         0.8000,  0.1000])
LN: tensor([-1.6906,  0.0171, -0.1537, -0.3245,  1.3833, -0.8368,  1.3833, -1.0076,
         1.2125,  0.0171], grad_fn=NativeLayerNormBackward>)
Relu: tensor([0.0000, 0.0171, 0.0000, 0.0000, 1.3833, 0.0000, 1.3833, 0.0000, 1.2125,
        0.0171], grad_fn=ReluBackward0>)
PRelu: tensor([-0.4227,  0.0171, -0.0384, -0.0811,  1.3833, -0.2092,  1.3833, -0.2519,
         1.2125,  0.0171], grad_fn=PreluBackward>)
LeakyRelu: tensor([-0.0169,  0.0171, -0.0015, -0.0032,  1.3833, -0.0084,  1.3833, -0.0101,
         1.2125,  0.0171], grad_fn=LeakyReluBackward0>)

從上面可以看出,這個LayerNorm的歸一化,并不是將數據限定在0-1之間,也沒有進行一個類似于高斯分布一樣的分數,只是將其進行了一個處理,對應的數值得到了一些變化,相同數值的變化也是相同的。

Relu的則是單純將小于0的數變成了0,減少了梯度消失的可能性

PRelu是一定程度上的保留了負值,根據init給的值。

LeakyRelu也是一定程度上保留負值,不過比較小,應該是根據negative_slope給的值。

補充:PyTorch學習之歸一化層(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)

BN,LN,IN,GN從學術化上解釋差異:

BatchNorm:batch方向做歸一化,算NHW的均值,對小batchsize效果不好;BN主要缺點是對batchsize的大小比較敏感,由于每次計算均值和方差是在一個batch上,所以如果batchsize太小,則計算的均值、方差不足以代表整個數據分布

LayerNorm:channel方向做歸一化,算CHW的均值,主要對RNN作用明顯;

InstanceNorm:一個channel內做歸一化,算H*W的均值,用在風格化遷移;因為在圖像風格化中,生成結果主要依賴于某個圖像實例,所以對整個batch歸一化不適合圖像風格化中,因而對HW做歸一化。可以加速模型收斂,并且保持每個圖像實例之間的獨立。

GroupNorm:將channel方向分group,然后每個group內做歸一化,算(C//G)HW的均值;這樣與batchsize無關,不受其約束。

SwitchableNorm是將BN、LN、IN結合,賦予權重,讓網絡自己去學習歸一化層應該使用什么方法。

1 BatchNorm

torch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
torch.nn.BatchNorm3d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

參數:

num_features: 來自期望輸入的特征數,該期望輸入的大小為'batch_size x num_features [x width]'

eps: 為保證數值穩定性(分母不能趨近或取0),給分母加上的值。默認為1e-5。

momentum: 動態均值和動態方差所使用的動量。默認為0.1。

affine: 布爾值,當設為true,給該層添加可學習的仿射變換參數。

track_running_stats:布爾值,當設為true,記錄訓練過程中的均值和方差;

實現公式:

track_running_stats:布爾值,當設為true,記錄訓練過程中的均值和方差;

實現公式:

2 GroupNorm

torch.nn.GroupNorm(num_groups, num_channels, eps=1e-05, affine=True)

參數:

num_groups:需要劃分為的groups

num_features:來自期望輸入的特征數,該期望輸入的大小為'batch_size x num_features [x width]'

eps:為保證數值穩定性(分母不能趨近或取0),給分母加上的值。默認為1e-5。

momentum:動態均值和動態方差所使用的動量。默認為0.1。

affine:布爾值,當設為true,給該層添加可學習的仿射變換參數。

實現公式:

3 InstanceNorm

torch.nn.InstanceNorm1d(num_features, eps=1e-05, momentum=0.1, affine=False, track_running_stats=False)
torch.nn.InstanceNorm2d(num_features, eps=1e-05, momentum=0.1, affine=False, track_running_stats=False)
torch.nn.InstanceNorm3d(num_features, eps=1e-05, momentum=0.1, affine=False, track_running_stats=False)

參數:

num_features:來自期望輸入的特征數,該期望輸入的大小為'batch_size x num_features [x width]'

eps:為保證數值穩定性(分母不能趨近或取0),給分母加上的值。默認為1e-5。

momentum:動態均值和動態方差所使用的動量。默認為0.1。

affine:布爾值,當設為true,給該層添加可學習的仿射變換參數。

track_running_stats:布爾值,當設為true,記錄訓練過程中的均值和方差;

實現公式:

4 LayerNorm

torch.nn.LayerNorm(normalized_shape, eps=1e-05, elementwise_affine=True)

參數:

normalized_shape: 輸入尺寸

[∗×normalized_shape[0]×normalized_shape[1]×…×normalized_shape[−1]]

eps: 為保證數值穩定性(分母不能趨近或取0),給分母加上的值。默認為1e-5。

elementwise_affine: 布爾值,當設為true,給該層添加可學習的仿射變換參數。

實現公式:

5 LocalResponseNorm

torch.nn.LocalResponseNorm(size, alpha=0.0001, beta=0.75, k=1.0)

參數:

size:用于歸一化的鄰居通道數

alpha:乘積因子,Default: 0.0001

beta :指數,Default: 0.75

k:附加因子,Default: 1

實現公式:

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch方法測試——激活函數(ReLU)詳解
  • pytorch在fintune時將sequential中的層輸出方法,以vgg為例
  • pytorch 輸出中間層特征的實例
  • PyTorch之nn.ReLU與F.ReLU的區別介紹

標簽:成都 駐馬店 六盤水 宿遷 江蘇 蘭州 常州 山東

巨人網絡通訊聲明:本文標題《pytorch中LN(LayerNorm)及Relu和其變相的輸出操作》,本文關鍵詞  pytorch,中,LayerNorm,及,Relu,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch中LN(LayerNorm)及Relu和其變相的輸出操作》相關的同類信息!
  • 本頁收集關于pytorch中LN(LayerNorm)及Relu和其變相的輸出操作的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    日韩欧美在线1卡| 在线播放日韩导航| 国产成人av影院| 欧美精品一区二区在线观看| 午夜激情一区二区| 欧美在线免费观看视频| 亚洲人成网站在线| 色综合天天综合网天天看片| 国产欧美一区二区精品婷婷| 韩国视频一区二区| 久久亚区不卡日本| 国产精品影音先锋| 国产精品久久福利| 色一情一伦一子一伦一区| 《视频一区视频二区| 欧美视频一区在线观看| 奇米综合一区二区三区精品视频| 日韩一区二区在线观看视频| 日韩av不卡一区二区| 69堂成人精品免费视频| 精东粉嫩av免费一区二区三区| 欧美mv和日韩mv国产网站| 国产成人精品一区二区三区四区| 国产精品久久久一本精品 | 国产欧美一区二区三区网站| 国产iv一区二区三区| 亚洲日本中文字幕区| 欧美日韩一区二区欧美激情| 国产精品69久久久久水密桃| 中文字幕在线免费不卡| 一本色道久久综合亚洲aⅴ蜜桃| 日韩avvvv在线播放| 亚洲欧洲精品一区二区精品久久久| 在线视频一区二区免费| 狠狠v欧美v日韩v亚洲ⅴ| 亚洲综合自拍偷拍| 国产农村妇女毛片精品久久麻豆| 欧美日韩大陆一区二区| 国产女主播在线一区二区| 欧美挠脚心视频网站| 国产精一品亚洲二区在线视频| 一区二区三区久久| 国产精品久久久久婷婷二区次| 884aa四虎影成人精品一区| 99久久精品一区| 久久 天天综合| 日本美女视频一区二区| 夜夜爽夜夜爽精品视频| 欧美国产精品一区二区| 精品久久国产97色综合| 制服.丝袜.亚洲.中文.综合| 在线观看av一区二区| 99re热这里只有精品免费视频| 久久99精品久久只有精品| 日日摸夜夜添夜夜添亚洲女人| 亚洲精品国产无天堂网2021 | 欧美综合一区二区三区| 成人激情开心网| 国产不卡视频一区二区三区| 国产乱码一区二区三区| 激情欧美一区二区三区在线观看| 午夜电影网亚洲视频| 亚洲一区二区成人在线观看| 亚洲一区二区视频| 亚洲一卡二卡三卡四卡 | 日韩经典中文字幕一区| 五月天欧美精品| 日韩综合在线视频| 日韩不卡一二三区| 久久99精品久久久久久动态图| 日本人妖一区二区| 久久狠狠亚洲综合| 国产一区二区三区四区五区美女| 国产精品自拍三区| 99久久精品免费精品国产| 94色蜜桃网一区二区三区| 在线观看www91| 日韩一区二区电影| 国产三级一区二区三区| 18涩涩午夜精品.www| 亚洲第一精品在线| 另类的小说在线视频另类成人小视频在线 | 91美女蜜桃在线| 日本精品一区二区三区四区的功能| 色琪琪一区二区三区亚洲区| 欧美日本一区二区| 久久众筹精品私拍模特| 国产精品毛片大码女人| 一区二区三区四区在线播放| 强制捆绑调教一区二区| 国产99久久久精品| 欧美色涩在线第一页| 久久这里只有精品首页| 亚洲精品成人天堂一二三| 久久激情五月激情| 在线免费观看一区| 欧美精品tushy高清| 久久久久国产精品麻豆| 亚洲视频免费在线| 国产一区二区免费看| 在线免费观看日本欧美| 欧美一区二区免费观在线| 久久久久久9999| 亚洲国产三级在线| 久久99精品网久久| 欧美三级视频在线播放| 久久久欧美精品sm网站| 亚洲黄色在线视频| 国产高清精品网站| 欧美日韩精品一区二区三区四区 | 欧美日韩免费电影| 久久蜜桃av一区二区天堂| 亚洲一区二区在线免费看| 美女网站在线免费欧美精品| 成人av免费观看| 精品国产乱码久久久久久老虎| 中文字幕一区二区三区四区| 婷婷国产v国产偷v亚洲高清| 国产揄拍国内精品对白| 成人免费高清在线| 精品少妇一区二区| 日韩黄色片在线观看| 色综合天天综合在线视频| 国产三区在线成人av| 精品一区二区在线免费观看| 日本福利一区二区| 中文字幕在线一区二区三区| 久久精品国产99久久6| 欧洲亚洲国产日韩| 亚洲图片激情小说| 国产激情一区二区三区四区| 日韩一区二区视频| 婷婷国产v国产偷v亚洲高清| 99久久久久久| 国产精品久久久久一区二区三区| 风间由美一区二区av101| 2欧美一区二区三区在线观看视频| 一区av在线播放| 欧美在线视频你懂得| 国产精品夫妻自拍| 91在线精品秘密一区二区| 中文字幕中文字幕一区二区| av网站一区二区三区| 中文字幕亚洲区| 91亚洲精品久久久蜜桃| 亚洲综合成人在线视频| 一本到不卡精品视频在线观看| 亚洲精品国产成人久久av盗摄| 91在线无精精品入口| 亚洲一区二区精品久久av| 欧美探花视频资源| 亚洲午夜精品久久久久久久久| 欧美日本精品一区二区三区| 亚洲成人1区2区| 欧美电影免费观看高清完整版| 久久精品国产一区二区三区免费看 | 日本一区二区三区久久久久久久久不 | 国产欧美日韩另类视频免费观看| 91国偷自产一区二区开放时间| 蜜臀a∨国产成人精品| 亚洲成人精品一区| 欧美电影在哪看比较好| 麻豆精品视频在线观看视频| 日韩一区二区三区在线| 国内成+人亚洲+欧美+综合在线| 久久免费美女视频| 国产999精品久久久久久| 欧美亚洲综合另类| 日韩国产成人精品| 久久男人中文字幕资源站| 顶级嫩模精品视频在线看| 亚洲欧美视频在线观看| 欧美日产在线观看| 国产91高潮流白浆在线麻豆| 亚洲国产精品麻豆| 26uuu亚洲综合色欧美| 91麻豆6部合集magnet| 久久99久久久欧美国产| 亚洲素人一区二区| 精品日韩在线观看| 色诱视频网站一区| 国产一区视频导航| 中文字幕免费观看一区| 欧美日韩高清在线| 国产成人亚洲综合色影视| 视频一区在线播放| 国产精品久久夜| 久久人人97超碰com| 欧美日韩国产天堂| 国产精品一区二区三区乱码 | 一区二区三区加勒比av| 精品国产乱子伦一区| 91久久精品一区二区三区| 另类小说色综合网站| 国产精品成人免费在线| 精品国产第一区二区三区观看体验 | 99久久国产综合色|国产精品| 日韩国产在线观看一区| 伊人夜夜躁av伊人久久| 国产精品免费视频一区|