婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 解決pytorch 模型復制的一些問題

解決pytorch 模型復制的一些問題

熱門標簽:電銷機器人系統廠家鄭州 阿里電話機器人對話 螳螂科技外呼系統怎么用 qt百度地圖標注 遼寧智能外呼系統需要多少錢 舉辦過冬奧會的城市地圖標注 正安縣地圖標注app 地圖地圖標注有嘆號 400電話申請資格

直接使用

model2=model1

會出現當更新model2時,model1的權重也會更新,這和自己的初始目的不同。

經評論指出可以使用:

model2=copy.deepcopy(model1)

來實現深拷貝,手上沒有pytorch環境,具體還沒測試過,誰測試過可以和我說下有沒有用。

原方法:

所有要使用模型復制可以使用如下方法。

torch.save(model, "net_params.pkl")
model5=Cnn(3,10)
model5=torch.load('net_params.pkl')

這樣編寫不會影響原始模型的權重

補充:pytorch模型訓練流程中遇到的一些坑(持續更新)

要訓練一個模型,主要分成幾個部分,如下。

數據預處理

入門的話肯定是拿 MNIST 手寫數據集先練習。

pytorch 中有幫助我們制作數據生成器的模塊,其中有 Dataset、TensorDataset、DataLoader 等類可以來創建數據入口。

之前在 tensorflow 中可以用 dataset.from_generator() 的形式,pytorch 中也類似,目前我了解到的有兩種方法可以實現。

第一種就繼承 pytorch 定義的 dataset,改寫其中的方法即可。如下,就獲得了一個 DataLoader 生成器。

class MyDataset(Dataset):
 def __init__(self, data, labels):
 self.data = data
 self.labels = labels
 def __getitem__(self, index):
 return self.data[index], self.labels[index]
 def __len__(self):
 return len(self.labels)
 
train_dataset = MyDataset(train_data, train_label)
train_loader = DataLoader(dataset = train_dataset,
 batch_size = 1,
 shuffle = True)

第二種就是轉換,先把我們準備好的數據轉化成 pytorch 的變量(或者是 Tensor),然后傳入 TensorDataset,再構造 DataLoader。

X = torch.from_numpy(train_data).float()
Y = torch.from_numpy(train_label).float()
train_dataset = TensorDataset(X, Y)
 
train_loader = DataLoader(dataset = train_dataset,
 batch_size = 1,
 shuffle = True)
 #num_workers = 2)

模型定義

class Net(nn.Module):
 
 def __init__(self):
 super(Net, self).__init__()
 self.conv1 = nn.Conv2d(1, 6, 3)
 self.conv2 = nn.Conv2d(6 ,16, 3)
 
 self.fc1 = nn.Linear(400, 120)
 self.fc2 = nn.Linear(120, 84)
 self.fc3 = nn.Linear(84, 10)
 
 def forward(self, x):
 relu = F.relu(self.conv1(x))
 x = F.max_pool2d(relu, (2, 2))
 x = F.max_pool2d(F.relu(self.conv2(x)), 2)
 x = x.view(-1, self.num_flat_features(x))
 x = F.relu(self.fc1(x))
 x = F.relu(self.fc2(x))
 x = self.fc3(x)
 
 return x 
 def num_flat_features(self, x):
 size = x.size()[1:] #除了batch_size之外的維度
 num_features = 1
 for s in size:
 num_features *= s
 return num_features

訓練模型那么肯定要先定義一個網絡結構,如上定義一個前向傳播網絡。里面包含了卷積層、全連接層、最大池化層和 relu 非線性激活層(名字我自己取的)以及一個 view 展開,把一個多維的特征圖平展成一維的。

其中nn.Conv2d(in_channels, out_channels, kernel_size),第一個參數是輸入的深度,第二是輸出的深度,第三是卷積核的尺寸。

F.max_pool2d(input, (pool_size, pool_size)),第二個參數是池話

nn.Linear(in_features, out_features)

x.view是平展的操作,不過實際上相當于 numpy 的 reshape,需要計算轉換后的尺寸。

損失函數定義

import torch.optim as optim
 
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

模型定義完之后,意味著給出輸入,就可以得到輸出的結果。那么就來比較 outputs 和 targets 之間的區別,那么就需要用到損失函數來描述。

訓練網絡

for epoch in range(2): # loop over the dataset multiple times
 
 running_loss = 0.0
 for i, data in enumerate(trainloader, 0):
 # get the inputs; data is a list of [inputs, labels]
 inputs, labels = data
 
 # zero the parameter gradients
 optimizer.zero_grad()
 
 # forward + backward + optimize
 outputs = net(inputs)
 loss = criterion(outputs, labels)
 loss.backward()
 optimizer.step()
 
 # print statistics
 running_loss += loss.item()
 if i % 2000 == 1999: # print every 2000 mini-batches
  print('[%d, %5d] loss: %.3f' %
   (epoch + 1, i + 1, running_loss / 2000))
  running_loss = 0.0
 
print('Finished Training')

以上的代碼是官方教程中給出來的,我們要做的就是學習他的思路。

1.首先是 epoch 的數量為 2,每個 epoch 都會歷遍一次整個訓練集。在每個 epoch 內累積統計 running_loss,每 2000 個 batch 數據計算一次損失的平均值,然后 print 再重新將 running_loss 置為 0。

2.然后分 mini-batch 進行訓練,在每個計算每個 mini-batch 的損失之前,都會將優化器 optimizer 中的梯度清空,防止不同 mini-batch 的梯度被累加到一起。更新分成兩步:第一步計算損失函數,然后把總的損失分配到各個層中,即 loss.backward(),然后就使用優化器更新權重,即 optimizer.step()。

保存模型

PATH = '...'
torch.save(net.state_dict(), PATH)

爬坑總結

總的來說流程就是上面那幾步,但自己做的時候就遇到了挺多問題,最主要是對于其中張量傳播過程中的要求不清楚,導致出了不少錯誤。

首先是輸入的數據,pytorch 默認圖片的 batch 數據的結構是(BATCH_SIZE, CHANNELS, IMG_H, IMG_W),所以要在生成數據時做一些調整,滿足這種 BCHW 的規則。

會經常出現一些某個矩陣或者張量要求的數據,例如 “RuntimeError: Expected object of scalar type Double but got scalar type Float for argument #2 ‘mat2'” 等錯誤信息。

可以使用 x.double(),y.float(),z.long() 等方式轉換成他要求的格式。

RuntimeError: multi-target not supported。這個錯誤出現在損失函數那個地方,對于分類問題肯定是優先考慮交叉熵。

criterion = nn.CrossEntropyLoss()
loss = criterion(outputs, labels.long())#報錯的地方

當我batch-size=1時這個地方不會報錯,但是當batch-size>1時就會報錯。

查了別人的代碼,大家基本都是和官方教程里面寫的一樣,使用官方的 mnist 數據接口,代碼如下。一開始我是不愿意的,因為那樣子意味著可能數據格式被封裝起來看不見,但是自己折騰成本比較高,所以還是試了,真香!

train_dataset = datasets.MNIST(root='./data/',
    train=True,
    transform=transforms.ToTensor(),
    download=True)
train_loader = DataLoader(dataset = train_dataset,
  batch_size = 4,
  shuffle = True)

打印了一下從生成器中獲得數據,看一下 size,發現果然和我自己寫的不同。當 batch_size=4 時,數據 data.size() 都是4*1*28*28,這個是相同的;但是 labels.size() 是不同的,我寫的是 one_hot 向量所以是 4*10,但它的是 4。

直接打印 labels 看看,果然,是單個指,例如 tensor([3, 2, 6, 2]) 這樣。

不過模型的 outputs 依然是 4*10,看來是 nn.CrossEntropyLoss() 這個函數自己會做計算,所以他才會報錯說 multi-target not supported,因為 lables.size() 不對,原本只有一個數字,但現在是10個數字,相當于被分配了10個屬性,自然就報錯啦。

所以稍微修改了自己寫的生成器之后,就沒問題了。

不過,如果想要更自由的調用數據,還是需要對對象進行一些方法的重載,使用 pytoch 定義的 DataLoader,用 enumerate,就會把所有的數據歷遍一次,如果使用 iter() 得到一個可迭代對象之后 next(),并不可以像 tensorflow 那樣子生成訓練數據。

例如說,如果使用如上的形式,DataLoader 得到的是一個生成器,python 中的生成器對象主要有 __next__ 和 __iter__ 等魔術方法決定。

__iter__ 方法使得實例可以如下調用,可以得到一個可迭代對象,iterable,但是如果不加也沒關系,因為更重要的是 __next__ 類方法。

如下自己寫了 __next__ 方法之后就可以看到,原本會出現越界的現象不見了,可以循環的歷遍數據,當然也可以想被注釋的那部分一樣,拋出 StopIteration 來終止。

a = A()
a_iter = iter(a)
class A():
 def __init__(self):
 self.list = [1,2,3]
 self.index = 0
 #def __getitem__(self, index):
 # return self.list[i]
 #def __iter__(self):
 # return self
 def __next__(self):
 #for i in range():
 if self.index >= len(self.list):
 #raise StopIteration 
 self.index = self.index%len(self.list)
 result = self.list[self.index]
 self.index += 1
 return result 
b = A() 
for i in range(20):
 print(next(b))
 

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • pytorch 狀態字典:state_dict使用詳解
  • 解決pytorch 保存模型遇到的問題
  • 解決pytorch 的state_dict()拷貝問題

標簽:濟源 阜新 昭通 淘寶好評回訪 隨州 信陽 興安盟 合肥

巨人網絡通訊聲明:本文標題《解決pytorch 模型復制的一些問題》,本文關鍵詞  解決,pytorch,模型,復制,的,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《解決pytorch 模型復制的一些問題》相關的同類信息!
  • 本頁收集關于解決pytorch 模型復制的一些問題的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    91久久精品一区二区三区| 欧美三级视频在线| 日本高清不卡aⅴ免费网站| 久久女同互慰一区二区三区| 夜夜嗨av一区二区三区| av动漫一区二区| 中文字幕一区二区三区精华液 | 日韩一区二区三区视频| 亚洲成av人影院在线观看网| 欧美高清视频一二三区| 精品在线你懂的| 国产女主播在线一区二区| 成人av动漫在线| 亚洲人成亚洲人成在线观看图片| 在线视频综合导航| 丝袜美腿亚洲综合| 久久综合一区二区| 99久久国产综合精品色伊| 亚洲国产成人av网| 日韩精品专区在线影院重磅| 国产精品亚洲人在线观看| 国产三级三级三级精品8ⅰ区| 国产在线精品免费av| 欧美成人精精品一区二区频| 99久久综合色| 99国产精品久| 国产亚洲自拍一区| 国产电影一区二区三区| 午夜伦欧美伦电影理论片| 欧美综合一区二区| 亚洲一区二区三区影院| 欧美无乱码久久久免费午夜一区| 中文字幕中文在线不卡住| 国产不卡在线播放| 中文一区二区在线观看| 首页综合国产亚洲丝袜| 91视频一区二区三区| 亚洲国产高清不卡| 国产美女久久久久| 中文字幕一区av| 色女孩综合影院| 亚洲永久免费av| 欧美电影免费提供在线观看| 久久精品999| 日本一区二区三区电影| 99久久国产免费看| 午夜免费久久看| 在线观看日韩一区| 日韩精品一区二区三区在线 | 6080亚洲精品一区二区| 日本强好片久久久久久aaa| 26uuu欧美| 一本久道久久综合中文字幕| 国产精品免费网站在线观看| 色综合久久久久久久| 亚洲18女电影在线观看| 精品久久久久久久久久久久久久久久久 | 日韩毛片高清在线播放| 国产成人av电影在线观看| 欧美国产精品一区二区三区| 欧洲中文字幕精品| 国产精品一二三区在线| 亚洲永久免费av| 久久久国产精品午夜一区ai换脸| 成人av第一页| 全国精品久久少妇| 国产精品国产三级国产有无不卡| 欧美色大人视频| 成人午夜免费电影| 婷婷国产在线综合| 国产精品美女久久久久aⅴ国产馆| 欧美亚洲图片小说| 成人午夜碰碰视频| 狠狠色丁香久久婷婷综| 一区二区三区欧美久久| 国产日产精品一区| 欧美一区二视频| 东方aⅴ免费观看久久av| 精品福利在线导航| 91性感美女视频| 精品一区二区免费在线观看| 午夜欧美一区二区三区在线播放| 欧美日韩精品久久久| 日本午夜一区二区| 91精品国产91久久久久久一区二区| 国产精品免费人成网站| 欧美一区二区三区思思人| 国产酒店精品激情| 欧美国产精品一区| 欧美情侣在线播放| 99久久久久免费精品国产| 日韩电影免费在线观看网站| 一区二区三区中文字幕电影| 中文幕一区二区三区久久蜜桃| 欧美一级黄色片| 91小视频免费观看| 国产99一区视频免费| 久88久久88久久久| 欧美aaaaaa午夜精品| 一区二区欧美在线观看| 亚洲视频小说图片| 国产精品不卡视频| 国产精品久久二区二区| 中文字幕在线不卡视频| 国产精品亲子伦对白| 精品日韩欧美一区二区| 欧美videos大乳护士334| 国产成人8x视频一区二区| 99精品视频在线观看免费| 视频在线在亚洲| 亚洲一区中文日韩| 日韩精品影音先锋| 国产伦精品一区二区三区免费| 欧美日韩精品系列| 欧美一区二区三级| 欧美成人性战久久| 国产精品五月天| 亚洲已满18点击进入久久| 视频在线观看国产精品| 美国一区二区三区在线播放| 国产一区中文字幕| 91色|porny| 精品一区二区三区在线视频| 国产精品系列在线观看| 日本视频中文字幕一区二区三区| 亚洲成人av中文| 亚洲激情图片小说视频| 一区二区三区高清在线| 亚洲成人久久影院| 国产在线播放一区| 日韩av电影天堂| 成人av网址在线| 97久久精品人人爽人人爽蜜臀| 欧美日韩一区二区三区四区| 久久精品免费在线观看| 亚洲精品国产无天堂网2021| 日韩不卡一二三区| 99re视频精品| 欧美一区二区三区成人| 精品区一区二区| 亚洲国产aⅴ天堂久久| 性做久久久久久免费观看| 91精品久久久久久久99蜜桃| 欧美视频一区二区三区在线观看 | 精品亚洲国内自在自线福利| 99国内精品久久| 久久久美女毛片| 亚洲高清免费一级二级三级| 国产精品亚洲第一区在线暖暖韩国| 色美美综合视频| 欧美一区二区三区视频| 欧美激情中文字幕| 免费人成网站在线观看欧美高清| 在线免费观看日本欧美| 亚洲国产激情av| 蜜臀av一区二区在线免费观看| 色系网站成人免费| 日韩一级片在线观看| 另类欧美日韩国产在线| 欧美精品自拍偷拍| 麻豆精品国产传媒mv男同| 欧美日韩高清在线播放| 经典三级视频一区| 日韩欧美不卡一区| 91丨porny丨国产入口| 欧美激情一二三区| 欧美中文字幕一区二区三区亚洲| 一区二区三区在线播| 欧美二区三区的天堂| 奇米在线7777在线精品| 欧美一区在线视频| 毛片基地黄久久久久久天堂| 天天av天天翘天天综合网| 26uuu国产日韩综合| 国产精品一级二级三级| 精品国产乱码久久久久久浪潮| 日韩伦理av电影| 日本丰满少妇一区二区三区| 国产精品视频观看| 国内精品国产成人国产三级粉色| 日韩午夜在线影院| 久久国产婷婷国产香蕉| 欧美伊人久久大香线蕉综合69| 欧美经典一区二区| 99精品在线免费| 国产亚洲欧洲997久久综合 | 欧美精品久久一区二区三区| 日韩福利电影在线观看| 欧美成人乱码一区二区三区| 国产伦精品一区二区三区免费| 色婷婷av一区二区三区之一色屋| 亚洲欧美日韩中文播放| 欧美性大战久久| 久久99精品久久久久久国产越南 | 中文字幕欧美日韩一区| 成人黄色av网站在线| 尤物av一区二区| 日韩欧美一区二区久久婷婷| 亚洲精品日产精品乱码不卡| 91精品国产色综合久久不卡电影 |