婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch教程resnet.py的實現文件源碼分析

pytorch教程resnet.py的實現文件源碼分析

熱門標簽:獲客智能電銷機器人 不錯的400電話辦理 徐州天音防封電銷卡 佛山防封外呼系統收費 南昌辦理400電話怎么安裝 鄭州智能外呼系統運營商 湛江電銷防封卡 哈爾濱外呼系統代理商 電話機器人適用業務

調用pytorch內置的模型的方法

import torchvision
model = torchvision.models.resnet50(pretrained=True)

這樣就導入了resnet50的預訓練模型了。如果只需要網絡結構,不需要用預訓練模型的參數來初始化

那么就是:

model = torchvision.models.resnet50(pretrained=False)

如果要導入densenet模型也是同樣的道理

比如導入densenet169,且不需要是預訓練的模型:

model = torchvision.models.densenet169(pretrained=False)

由于pretrained參數默認是False,所以等價于:

model = torchvision.models.densenet169()

不過為了代碼清晰,最好還是加上參數賦值。

解讀模型源碼Resnet.py

包含的庫文件

import torch.nn as nn
import math
import torch.utils.model_zoo as model_zoo

該庫定義了6種Resnet的網絡結構

包括

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

每種網絡都有訓練好的可以直接用的.pth參數文件

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

Resnet中大多使用3*3的卷積定義如下

def conv3x3(in_planes, out_planes, stride=1):   
"""3x3 convolution with padding"""   
return nn.Conv2d(in_planes, out_planes, kernel_size=3, 
stride=stride, padding=1, bias=False)

該函數繼承自nn網絡中的2維卷積,這樣做主要是為了方便,少寫參數參數由原來的6個變成了3個

輸出圖與輸入圖長寬保持一致

如何定義不同大小的Resnet網絡

Resnet類是一個基類,
所謂的"Resnet18", ‘resnet34', ‘resnet50', ‘resnet101', 'resnet152'只是Resnet類初始化的時候使用了不同的參數,理論上我們可以根據Resnet類定義任意大小的Resnet網絡
下面先看看這些不同大小的Resnet網絡是如何定義的

定義Resnet18

def resnet18(pretrained=False, **kwargs):  
"""
Constructs a ResNet-18 model.    
Args:    
pretrained (bool):If True, returns a model pre-trained on ImageNet   
"""    
model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet18']))   
 return model

定義Resnet34

def resnet34(pretrained=False, **kwargs):    
"""Constructs a ResNet-34 model.   
Args:        pretrained (bool): If True, returns a model pre-trained on ImageNet    """   
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)  
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet34']))    
 return model

我們發現Resnet18和Resnet34的定義幾乎是一樣的,下面我們把Resnet18,Resnet34,Resnet50,Resnet101,Resnet152,不一樣的部分寫在一塊進行對比

model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    #Resnet18
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)    #Resnet34
model = ResNet(Bottleneck, [3, 4, 6, 3], **kwargs)    #Eesnt50
model = ResNet(Bottleneck, [3, 4, 23, 3], **kwargs)  #Resnet101
model = ResNet(Bottleneck, [3, 8, 36, 3], **kwargs)  #Resnet152

代碼看起來非常的簡潔工整,

其他resnet18、resnet101等函數和resnet18基本類似,差別主要是在:

1、構建網絡結構的時候block的參數不一樣,比如resnet18中是[2, 2, 2, 2],resnet101中是[3, 4, 23, 3]。

2、調用的block類不一樣,比如在resnet50、resnet101、resnet152中調用的是Bottleneck類,而在resnet18和resnet34中調用的是BasicBlock類,這兩個類的區別主要是在residual結果中卷積層的數量不同,這個是和網絡結構相關的,后面會詳細介紹。

3、如果下載預訓練模型的話,model_urls字典的鍵不一樣,對應不同的預訓練模型。因此接下來分別看看如何構建網絡結構和如何導入預訓練模型。

Resnet類

構建ResNet網絡是通過ResNet這個類進行的。ResNet類是繼承PyTorch中網絡的基類:torch.nn.Module。

構建Resnet類主要在于重寫 init() forward() 方法。

我們構建的所有網絡比如:VGGAlexnet等都需要重寫這兩個方法,這兩個方法很重要

看起來Resne類是整個文檔的核心

下面我們就要研究一下Resnet基類是如何實現的

Resnet類采用了pytorch定義網絡模型的標準結構,包含

iinit()方法: 定義了網絡的各個層
forward()方法: 定義了前向傳播過程

這兩個方法的用法,這個可以查看pytorch的官方文檔就可以明白

在Resnet類中,還包含一個自定義的方法make_layer()方法

是用來構建ResNet網絡中的4個blocks

_make_layer方法的第一個輸入block是BottleneckBasicBlock

第二個輸入是該blocks的輸出channel

第三個輸入是每個blocks中包含多少個residual子結構,因此layers這個列表就是前面resnet50的[3, 4, 6, 3]。

_make_layer方法中比較重要的兩行代碼是:

layers.append(block(self.inplanes, planes, stride, downsample))

該部分是將每個blocks的第一個residual結構保存在layers列表中。

 for i in range(1, blocks): layers.append(block(self.inplanes, planes))

該部分是將每個blocks的剩下residual 結構保存在layers列表中,這樣就完成了一個blocks的構造。這兩行代碼中都是通過Bottleneck這個類來完成每個residual的構建

接下來介紹Bottleneck類

class ResNet(nn.Module):
    def __init__(self, block, layers, num_classes=1000):
        self.inplanes = 64
        super(ResNet, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3,
                               bias=False)
        self.bn1 = nn.BatchNorm2d(64)
        self.relu = nn.ReLU(inplace=True)
        self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
        self.layer1 = self._make_layer(block, 64, layers[0])
        self.layer2 = self._make_layer(block, 128, layers[1], stride=2)
        self.layer3 = self._make_layer(block, 256, layers[2], stride=2)
        self.layer4 = self._make_layer(block, 512, layers[3], stride=2)
        self.avgpool = nn.AvgPool2d(7, stride=1)
        self.fc = nn.Linear(512 * block.expansion, num_classes)
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
                m.weight.data.normal_(0, math.sqrt(2. / n))
            elif isinstance(m, nn.BatchNorm2d):
                m.weight.data.fill_(1)
                m.bias.data.zero_()
    def _make_layer(self, block, planes, blocks, stride=1):
        downsample = None
        if stride != 1 or self.inplanes != planes * block.expansion:
            downsample = nn.Sequential(
                nn.Conv2d(self.inplanes, planes * block.expansion,
                          kernel_size=1, stride=stride, bias=False),
                nn.BatchNorm2d(planes * block.expansion),
            )
        layers = []
        layers.append(block(self.inplanes, planes, stride, downsample))
        self.inplanes = planes * block.expansion
        for i in range(1, blocks):
            layers.append(block(self.inplanes, planes))
        return nn.Sequential(*layers)
    def forward(self, x):
        x = self.conv1(x)
        x = self.bn1(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = self.layer1(x)
        x = self.layer2(x)
        x = self.layer3(x)
        x = self.layer4(x)
        x = self.avgpool(x)
        x = x.view(x.size(0), -1)
        x = self.fc(x)
        return x

下面我們分別看看這兩個過程:

網絡的forward過程

 def forward(self, x):                                #x代表輸入
        x = self.conv1(x)                             #進過卷積層1
        x = self.bn1(x)                                #bn1層
        x = self.relu(x)                                #relu激活
        x = self.maxpool(x)                         #最大池化
        x = self.layer1(x)                            #卷積塊1
        x = self.layer2(x)                           #卷積塊2
        x = self.layer3(x)                          #卷積塊3
        x = self.layer4(x)                          #卷積塊4
        x = self.avgpool(x)                     #平均池化
        x = x.view(x.size(0), -1)               #二維變成變成一維向量
        x = self.fc(x)                             #全連接層
        return x

里面的大部分我們都可以理解,只有layer1-layer4是Resnet網絡自己定義的,
它也是Resnet殘差連接的精髓所在,我們來分析一下layer層是怎么實現的

殘差Block連接是如何實現的

從前面的ResNet類可以看出,在構造ResNet網絡的時候,最重要的是 BasicBlock這個類,因為ResNet是由residual結構組成的,而 BasicBlock類就是完成residual結構的構建。同樣 BasicBlock還是繼承了torch.nn.Module類,且重寫了__init__()和forward()方法。從forward方法可以看出,bottleneck就是我們熟悉的3個主要的卷積層、BN層和激活層,最后的out += residual就是element-wise add的操作。

這部分在 BasicBlock類中實現,我們看看這層是如何前向傳播的

def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

我畫個流程圖來表示一下

畫的比較丑,不過基本意思在里面了,

根據論文的描述,x是否需要下采樣由x與out是否大小一樣決定,

假如進過conv2和bn2后的結果我們稱之為 P

假設x的大小為wHchannel1

如果P的大小也是wHchannel1

則無需下采樣
out = relu(P + X)
out的大小為W * H *(channel1+channel2),

如果P的大小是W/2 * H/2 * channel

則X需要下采樣后才能與P相加,
out = relu(P+ X下采樣)
out的大小為W/2 * H/2 * (channel1+channel2)

BasicBlock類和Bottleneck類類似,前者主要是用來構建ResNet18和ResNet34網絡,因為這兩個網絡的residual結構只包含兩個卷積層,沒有Bottleneck類中的bottleneck概念。因此在該類中,第一個卷積層采用的是kernel_size=3的卷積,就是我們之前提到的conv3x3函數。

下面是BasicBlock類的完整代碼

class BasicBlock(nn.Module):
    expansion = 1
    def __init__(self, inplanes, planes, stride=1, downsample=None):
        super(BasicBlock, self).__init__()
        self.conv1 = conv3x3(inplanes, planes, stride)
        self.bn1 = nn.BatchNorm2d(planes)
        self.relu = nn.ReLU(inplace=True)
        self.conv2 = conv3x3(planes, planes)
        self.bn2 = nn.BatchNorm2d(planes)
        self.downsample = downsample
        self.stride = stride
    def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

以上就是pytorch教程resnet.py的實現文件源碼解讀的詳細內容,更多關于pytorch源碼解讀的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • PyTorch實現ResNet50、ResNet101和ResNet152示例
  • Keras實現DenseNet結構操作
  • 關于Keras Dense層整理
  • Python機器學習從ResNet到DenseNet示例詳解

標簽:安康 蕪湖 呂梁 吉安 廣西 紹興 懷化 蘭州

巨人網絡通訊聲明:本文標題《pytorch教程resnet.py的實現文件源碼分析》,本文關鍵詞  pytorch,教程,resnet.py,的,實現,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch教程resnet.py的實現文件源碼分析》相關的同類信息!
  • 本頁收集關于pytorch教程resnet.py的實現文件源碼分析的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    欧美三级日本三级少妇99| 高清日韩电视剧大全免费| 99综合影院在线| 天天色 色综合| 欧美激情在线看| 欧美精品成人一区二区三区四区| 亚洲欧美综合另类在线卡通| 精品国产制服丝袜高跟| 欧美性猛交xxxx乱大交退制版| 精品久久久久99| 欧美疯狂做受xxxx富婆| 国产一区二区三区免费| 午夜视频一区在线观看| 亚洲精品一二三| 国产老女人精品毛片久久| 日韩国产精品大片| 国产精品美女久久久久av爽李琼| 另类成人小视频在线| 日韩午夜中文字幕| 99re热这里只有精品视频| 豆国产96在线|亚洲| 国产精品美女www爽爽爽| 欧美亚洲精品一区| 7777精品伊人久久久大香线蕉经典版下载| av动漫一区二区| 亚洲综合激情网| 日本亚洲欧美天堂免费| 久久成人18免费观看| 亚洲福利一区二区| 99久久精品国产毛片| 97超碰欧美中文字幕| 在线成人免费视频| 欧美在线看片a免费观看| 成人免费视频视频| 日韩欧美视频一区| hitomi一区二区三区精品| 日韩免费成人网| 精品国产区一区| 久久99国产精品久久99| 99久久er热在这里只有精品15 | 亚洲精品在线观看视频| 日韩成人免费电影| 日韩免费电影一区| 日韩三级视频在线看| 欧美乱妇20p| 国产精品自拍三区| 国产日韩欧美综合在线| 欧美电视剧免费观看| 成人性生交大片免费看视频在线| 精品国产乱码久久久久久蜜臀| 欧美哺乳videos| 国产午夜精品美女毛片视频| 97se亚洲国产综合自在线 | 日韩一区二区三区视频在线观看| 久久综合综合久久综合| 国产精品久久久99| 亚洲久草在线视频| 久久这里只有精品6| 国产亚洲污的网站| 欧美色综合网站| 天天爽夜夜爽夜夜爽精品视频| 久久99久久久久| 国产一区二区免费视频| 国产精品大尺度| 欧美裸体一区二区三区| 高清在线不卡av| 欧美精品99久久久**| 成人自拍视频在线观看| 亚洲第四色夜色| 国产精品你懂的在线| 亚洲精品日产精品乱码不卡| 精品国产伦一区二区三区观看体验| 欧美不卡一区二区三区| 欧美亚洲日本国产| 亚洲综合精品自拍| 国产精品美女一区二区三区| 欧美日韩一区小说| 成人毛片老司机大片| 99re视频精品| 国产一区二区在线电影| 首页欧美精品中文字幕| 亚洲免费观看高清完整版在线 | 欧美肥妇bbw| 99国产精品久久久| 国产精品综合二区| 91精品国产综合久久福利| 成人午夜伦理影院| 粉嫩绯色av一区二区在线观看 | 蜜乳av一区二区三区| 亚洲福利一二三区| 成人动漫一区二区| 国产一区二区精品久久99| 韩国欧美国产一区| 欧美丝袜自拍制服另类| 一本到三区不卡视频| 99re亚洲国产精品| 91年精品国产| 亚洲欧洲性图库| 亚洲摸摸操操av| thepron国产精品| 91一区二区三区在线观看| 久久久久久99精品| 国产一区在线精品| 国产精品久久二区二区| 中文字幕一区二区三区在线观看 | 亚洲成在线观看| 欧美亚洲综合网| 一区二区三区欧美| 国产精品免费视频网站| 欧美刺激脚交jootjob| 中文字幕永久在线不卡| 日本不卡一区二区| 色婷婷综合激情| 久久综合999| 日本中文字幕不卡| 在线观看国产日韩| 午夜不卡av免费| 国产日韩欧美亚洲| 日本va欧美va欧美va精品| 国产精品电影一区二区| 久久中文娱乐网| 日韩一区二区在线观看视频| 色综合激情久久| 欧美片在线播放| 青青青伊人色综合久久| 中文字幕一区二区三区视频| 亚洲精品在线一区二区| 91毛片在线观看| 国产日韩在线不卡| 欧美精品一二三| 精品一区免费av| 久久伊99综合婷婷久久伊| 韩国一区二区视频| 欧美日韩久久一区二区| 国产综合久久久久久鬼色| 国产婷婷色一区二区三区| 不卡一区二区在线| yourporn久久国产精品| 国产精品色一区二区三区| 欧美二区在线观看| 国内精品国产成人国产三级粉色| 91精品国产91久久久久久最新毛片| 蜜臀av性久久久久蜜臀aⅴ四虎 | 2023国产精品自拍| 调教+趴+乳夹+国产+精品| 亚洲欧美日韩久久| 视频一区二区三区入口| 亚洲成人自拍一区| 亚洲影视在线观看| 久久er精品视频| 九九热在线视频观看这里只有精品| 亚洲精品一区二区三区精华液 | 99久久99久久综合| 亚洲日本电影在线| 国产亚洲精品aa| 亚洲成人动漫在线免费观看| 欧美日韩成人在线| 精品在线观看免费| 亚洲欧洲日韩在线| 欧美日韩国产大片| 国产麻豆午夜三级精品| 亚洲欧美一区二区三区孕妇| 欧美日韩国产一区二区三区地区| 亚洲va欧美va天堂v国产综合| 亚洲国产精品嫩草影院| 亚洲综合男人的天堂| 日韩avvvv在线播放| 91麻豆国产福利精品| 91极品美女在线| 精品99一区二区三区| 成人午夜激情影院| 亚洲成在线观看| 国产欧美日韩视频一区二区| 欧洲色大大久久| 韩国精品主播一区二区在线观看 | 一个色综合网站| 日韩欧美国产精品一区| 99精品视频一区| 久久国产精品免费| 亚洲最大成人综合| 国产色产综合色产在线视频| 精品视频一区 二区 三区| 国产成人精品影院| 美女mm1313爽爽久久久蜜臀| 玉足女爽爽91| 久久久久久亚洲综合| 欧美偷拍一区二区| 97久久超碰国产精品电影| 国内精品在线播放| 天天操天天色综合| 亚洲男人的天堂一区二区| 国产欧美一二三区| 精品国产乱码久久久久久闺蜜| 91国在线观看| 99re热这里只有精品免费视频| 国产麻豆视频一区| 久久精品72免费观看| 蜜桃视频一区二区三区在线观看| 亚洲一区二区欧美日韩| 亚洲综合成人在线|