婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch 實現變分自動編碼器的操作

pytorch 實現變分自動編碼器的操作

熱門標簽:電銷機器人的風險 應電話機器人打電話違法嗎 開封語音外呼系統代理商 手機網頁嵌入地圖標注位置 400電話辦理哪種 河北防封卡電銷卡 天津電話機器人公司 地圖標注線上如何操作 開封自動外呼系統怎么收費

本來以為自動編碼器是很簡單的東西,但是也是看了好多資料仍然不太懂它的原理。先把代碼記錄下來,有時間好好研究。

這個例子是用MNIST數據集生成為例子

# -*- coding: utf-8 -*-
"""
Created on Fri Oct 12 11:42:19 2018
@author: www
""" 
import os 
import torch
from torch.autograd import Variable
import torch.nn.functional as F
from torch import nn
from torch.utils.data import DataLoader
 
from torchvision.datasets import MNIST
from torchvision import transforms as tfs
from torchvision.utils import save_image 
im_tfs = tfs.Compose([
    tfs.ToTensor(),
    tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) # 標準化
])
 
train_set = MNIST('E:\data', transform=im_tfs)
train_data = DataLoader(train_set, batch_size=128, shuffle=True)
 
class VAE(nn.Module):
    def __init__(self):
        super(VAE, self).__init__()
 
        self.fc1 = nn.Linear(784, 400)
        self.fc21 = nn.Linear(400, 20) # mean
        self.fc22 = nn.Linear(400, 20) # var
        self.fc3 = nn.Linear(20, 400)
        self.fc4 = nn.Linear(400, 784)
 
    def encode(self, x):
        h1 = F.relu(self.fc1(x))
        return self.fc21(h1), self.fc22(h1)
 
    def reparametrize(self, mu, logvar):
        std = logvar.mul(0.5).exp_()
        eps = torch.FloatTensor(std.size()).normal_()
        if torch.cuda.is_available():
            eps = Variable(eps.cuda())
        else:
            eps = Variable(eps)
        return eps.mul(std).add_(mu)
 
    def decode(self, z):
        h3 = F.relu(self.fc3(z))
        return F.tanh(self.fc4(h3))
 
    def forward(self, x):
        mu, logvar = self.encode(x) # 編碼
        z = self.reparametrize(mu, logvar) # 重新參數化成正態分布
        return self.decode(z), mu, logvar # 解碼,同時輸出均值方差 
 
net = VAE() # 實例化網絡
if torch.cuda.is_available():
    net = net.cuda()
    
x, _ = train_set[0]
x = x.view(x.shape[0], -1)
if torch.cuda.is_available():
    x = x.cuda()
x = Variable(x)
_, mu, var = net(x) 
print(mu)
 
#可以看到,對于輸入,網絡可以輸出隱含變量的均值和方差,這里的均值方差還沒有訓練
 
#下面開始訓練 
reconstruction_function = nn.MSELoss(size_average=False) 
def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD 
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
 
def to_img(x):
    '''
    定義一個函數將最后的結果轉換回圖片
    '''
    x = 0.5 * (x + 1.)
    x = x.clamp(0, 1)
    x = x.view(x.shape[0], 1, 28, 28)
    return x
 
for e in range(100):
    for im, _ in train_data:
        im = im.view(im.shape[0], -1)
        im = Variable(im)
        if torch.cuda.is_available():
            im = im.cuda()
        recon_im, mu, logvar = net(im)
        loss = loss_function(recon_im, im, mu, logvar) / im.shape[0] # 將 loss 平均
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
 
    if (e + 1) % 20 == 0:
        print('epoch: {}, Loss: {:.4f}'.format(e + 1, loss.item()))
        save = to_img(recon_im.cpu().data)
        if not os.path.exists('./vae_img'):
            os.mkdir('./vae_img')
        save_image(save, './vae_img/image_{}.png'.format(e + 1))                    
          

補充:PyTorch 深度學習快速入門——變分自動編碼器

變分編碼器是自動編碼器的升級版本,其結構跟自動編碼器是類似的,也由編碼器和解碼器構成。

回憶一下,自動編碼器有個問題,就是并不能任意生成圖片,因為我們沒有辦法自己去構造隱藏向量,需要通過一張圖片輸入編碼我們才知道得到的隱含向量是什么,這時我們就可以通過變分自動編碼器來解決這個問題。

其實原理特別簡單,只需要在編碼過程給它增加一些限制,迫使其生成的隱含向量能夠粗略的遵循一個標準正態分布,這就是其與一般的自動編碼器最大的不同。

這樣我們生成一張新圖片就很簡單了,我們只需要給它一個標準正態分布的隨機隱含向量,這樣通過解碼器就能夠生成我們想要的圖片,而不需要給它一張原始圖片先編碼。

一般來講,我們通過 encoder 得到的隱含向量并不是一個標準的正態分布,為了衡量兩種分布的相似程度,我們使用 KL divergence,利用其來表示隱含向量與標準正態分布之間差異的 loss,另外一個 loss 仍然使用生成圖片與原圖片的均方誤差來表示。

KL divergence 的公式如下

重參數 為了避免計算 KL divergence 中的積分,我們使用重參數的技巧,不是每次產生一個隱含向量,而是生成兩個向量,一個表示均值,一個表示標準差,這里我們默認編碼之后的隱含向量服從一個正態分布的之后,就可以用一個標準正態分布先乘上標準差再加上均值來合成這個正態分布,最后 loss 就是希望這個生成的正態分布能夠符合一個標準正態分布,也就是希望均值為 0,方差為 1

所以最后我們可以將我們的 loss 定義為下面的函數,由均方誤差和 KL divergence 求和得到一個總的 loss

def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD

用 mnist 數據集來簡單說明一下變分自動編碼器

import os 
import torch
from torch.autograd import Variable
import torch.nn.functional as F
from torch import nn
from torch.utils.data import DataLoader
 
from torchvision.datasets import MNIST
from torchvision import transforms as tfs
from torchvision.utils import save_image
 
im_tfs = tfs.Compose([
    tfs.ToTensor(),
    tfs.Normalize([0.5, 0.5, 0.5], [0.5, 0.5, 0.5]) # 標準化
])
 
train_set = MNIST('./mnist', transform=im_tfs)
train_data = DataLoader(train_set, batch_size=128, shuffle=True)
 
class VAE(nn.Module):
    def __init__(self):
        super(VAE, self).__init__()
 
        self.fc1 = nn.Linear(784, 400)
        self.fc21 = nn.Linear(400, 20) # mean
        self.fc22 = nn.Linear(400, 20) # var
        self.fc3 = nn.Linear(20, 400)
        self.fc4 = nn.Linear(400, 784)
 
    def encode(self, x):
        h1 = F.relu(self.fc1(x))
        return self.fc21(h1), self.fc22(h1)
 
    def reparametrize(self, mu, logvar):
        std = logvar.mul(0.5).exp_()
        eps = torch.FloatTensor(std.size()).normal_()
        if torch.cuda.is_available():
            eps = Variable(eps.cuda())
        else:
            eps = Variable(eps)
        return eps.mul(std).add_(mu)
 
    def decode(self, z):
        h3 = F.relu(self.fc3(z))
        return F.tanh(self.fc4(h3))
 
    def forward(self, x):
        mu, logvar = self.encode(x) # 編碼
        z = self.reparametrize(mu, logvar) # 重新參數化成正態分布
        return self.decode(z), mu, logvar # 解碼,同時輸出均值方差
 
net = VAE() # 實例化網絡
if torch.cuda.is_available():
    net = net.cuda()
x, _ = train_set[0]
x = x.view(x.shape[0], -1)
if torch.cuda.is_available():
    x = x.cuda()
x = Variable(x)
_, mu, var = net(x) 
print(mu) 
 
Variable containing:  Columns 0 to 9  -0.0307 -0.1439 -0.0435  0.3472  0.0368 -0.0339  0.0274 -0.5608  0.0280  0.2742  Columns 10 to 19  -0.6221 -0.0894 -0.0933  0.4241  0.1611  0.3267  0.5755 -0.0237  0.2714 -0.2806 [torch.cuda.FloatTensor of size 1x20 (GPU 0)]

可以看到,對于輸入,網絡可以輸出隱含變量的均值和方差,這里的均值方差還沒有訓練 下面開始訓練

reconstruction_function = nn.MSELoss(size_average=False) 
def loss_function(recon_x, x, mu, logvar):
    """
    recon_x: generating images
    x: origin images
    mu: latent mean
    logvar: latent log variance
    """
    MSE = reconstruction_function(recon_x, x)
    # loss = 0.5 * sum(1 + log(sigma^2) - mu^2 - sigma^2)
    KLD_element = mu.pow(2).add_(logvar.exp()).mul_(-1).add_(1).add_(logvar)
    KLD = torch.sum(KLD_element).mul_(-0.5)
    # KL divergence
    return MSE + KLD 
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
 
def to_img(x):
    '''
    定義一個函數將最后的結果轉換回圖片
    '''
    x = 0.5 * (x + 1.)
    x = x.clamp(0, 1)
    x = x.view(x.shape[0], 1, 28, 28)
    return x
 
for e in range(100):
    for im, _ in train_data:
        im = im.view(im.shape[0], -1)
        im = Variable(im)
        if torch.cuda.is_available():
            im = im.cuda()
        recon_im, mu, logvar = net(im)
        loss = loss_function(recon_im, im, mu, logvar) / im.shape[0] # 將 loss 平均
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
 
    if (e + 1) % 20 == 0:
        print('epoch: {}, Loss: {:.4f}'.format(e + 1, loss.data[0]))
        save = to_img(recon_im.cpu().data)
        if not os.path.exists('./vae_img'):
            os.mkdir('./vae_img')
        save_image(save, './vae_img/image_{}.png'.format(e + 1))
  
epoch: 20, Loss: 61.5803 epoch: 40, Loss: 62.9573 epoch: 60, Loss: 63.4285 epoch: 80, Loss: 64.7138 epoch: 100, Loss: 63.3343

變分自動編碼器雖然比一般的自動編碼器效果要好,而且也限制了其輸出的編碼 (code) 的概率分布,但是它仍然是通過直接計算生成圖片和原始圖片的均方誤差來生成 loss,這個方式并不好,生成對抗網絡中,我們會講一講這種方式計算 loss 的局限性,然后會介紹一種新的訓練辦法,就是通過生成對抗的訓練方式來訓練網絡而不是直接比較兩張圖片的每個像素點的均方誤差

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 超詳細PyTorch實現手寫數字識別器的示例代碼
  • Pytorch 實現自定義參數層的例子
  • 關于PyTorch 自動求導機制詳解
  • pytorch實現onehot編碼轉為普通label標簽

標簽:宿遷 常州 駐馬店 六盤水 蘭州 山東 成都 江蘇

巨人網絡通訊聲明:本文標題《pytorch 實現變分自動編碼器的操作》,本文關鍵詞  pytorch,實現,變,分,自動,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch 實現變分自動編碼器的操作》相關的同類信息!
  • 本頁收集關于pytorch 實現變分自動編碼器的操作的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    亚洲欧洲av在线| 久久精品一区二区三区av| 亚洲一区二区四区蜜桃| 亚洲欧美日韩小说| 成人久久视频在线观看| 日韩美女一区二区三区| 亚洲一区二区三区四区在线| 91精品视频网| av中文字幕在线不卡| 国产亚洲精品免费| 国产福利一区在线| 久久99精品国产麻豆不卡| 精品国产一二三区| 欧美日韩和欧美的一区二区| 色88888久久久久久影院按摩| 亚洲视频在线一区观看| 日本韩国欧美国产| 国产精品一区不卡| 综合中文字幕亚洲| 国产精品久久久久天堂| 欧美国产97人人爽人人喊| 蜜臀av性久久久久蜜臀aⅴ流畅| 91精品国产91热久久久做人人| 亚洲综合在线五月| 一区二区在线免费| 亚洲精品视频在线观看网站| 久久久精品国产免费观看同学| 国产在线精品不卡| 国产精品美女久久久久高潮| 国产精品一区二区不卡| 日韩欧美国产三级电影视频| 成人一级片在线观看| 国产精品一区二区男女羞羞无遮挡 | 国产精品 日产精品 欧美精品| 久久99精品久久久久久| 91视频你懂的| 日韩手机在线导航| 自拍av一区二区三区| 久久精品视频在线看| 亚洲美女一区二区三区| 亚洲麻豆国产自偷在线| 国产精品网站在线| 国产一区二区在线看| 色狠狠桃花综合| 日韩欧美区一区二| 2023国产精品自拍| 亚洲最新视频在线播放| 免费成人在线视频观看| 99re免费视频精品全部| 欧美精品1区2区| 亚洲欧洲性图库| 国产激情精品久久久第一区二区 | 久久精品在这里| 夜色激情一区二区| caoporen国产精品视频| 中文在线一区二区| 天天综合色天天| 色综合久久久久久久久久久| 3d动漫精品啪啪1区2区免费| 中文字幕巨乱亚洲| 精品一区二区三区在线视频| 国产美女一区二区| 久久久久久久久久久久久女国产乱| 一个色妞综合视频在线观看| 国产精品69久久久久水密桃 | 国产欧美日韩不卡| 亚洲第一福利一区| 欧美日韩国产三级| 美女免费视频一区二区| 色八戒一区二区三区| 欧美高清视频不卡网| 久久久精品综合| 国产一区视频网站| 久久久亚洲欧洲日产国码αv| 亚洲一区二区三区免费视频| 国产一区二区三区免费看| 日韩欧美亚洲国产精品字幕久久久 | 美女视频一区二区三区| 色综合久久久久综合体| 国产精品久久久久国产精品日日| 色综合婷婷久久| 精品在线你懂的| 26uuu国产日韩综合| 国产一区二区三区最好精华液| 久久女同性恋中文字幕| 色婷婷亚洲精品| 国产毛片一区二区| 亚洲视频一区二区免费在线观看| eeuss鲁一区二区三区| 亚洲免费资源在线播放| 欧美区一区二区三区| 午夜精品视频在线观看| 欧美一区二区三区播放老司机| 国产精品正在播放| 国产亚洲欧美激情| 日韩一级视频免费观看在线| 欧美色男人天堂| 综合色中文字幕| 欧美日韩亚洲不卡| 国产一区不卡精品| 蜜臀99久久精品久久久久久软件| 一色屋精品亚洲香蕉网站| 日本一区二区成人在线| 中文字幕一区二区三区乱码在线| 自拍偷拍国产亚洲| 亚洲va欧美va人人爽| 久久66热re国产| 99久久精品国产网站| 337p亚洲精品色噜噜噜| 日韩欧美在线不卡| 亚洲日本乱码在线观看| 首页国产丝袜综合| 播五月开心婷婷综合| 91丨九色丨国产丨porny| 欧美日本视频在线| 亚洲天堂网中文字| 裸体歌舞表演一区二区| 成人sese在线| 久久久不卡网国产精品一区| 悠悠色在线精品| 92精品国产成人观看免费| 日韩欧美一级片| 日韩和欧美一区二区三区| 日韩美女天天操| 一区二区三区鲁丝不卡| 色综合一区二区三区| 91色porny在线视频| 另类的小说在线视频另类成人小视频在线| 午夜视频一区二区三区| 色综合婷婷久久| 中文字幕不卡在线播放| 免费成人在线观看视频| 91视视频在线观看入口直接观看www | 欧美日韩精品高清| 日韩成人av影视| 欧美精品一区二区高清在线观看 | 久久99精品国产麻豆婷婷| 国产一区二区三区免费播放| 91污在线观看| 欧美色图第一页| 欧美xxxxxxxx| 天天av天天翘天天综合网 | 欧美日韩精品免费| 免费一级片91| 亚洲伦理在线免费看| 日韩欧美一级精品久久| eeuss影院一区二区三区| 日日夜夜免费精品| 一区二区在线看| 亚洲女同一区二区| 国产精品欧美一区喷水| 亚洲精品一区二区精华| 欧美成人精品1314www| 91麻豆自制传媒国产之光| 国产v综合v亚洲欧| 国产乱码精品一区二区三区五月婷| 亚洲国产视频网站| 综合在线观看色| 国产精品久久毛片| ...中文天堂在线一区| 美女国产一区二区三区| 欧美成人bangbros| 国产欧美日韩另类一区| 中文字幕一区二区三| 日韩高清不卡一区| 国产iv一区二区三区| 在线观看91精品国产麻豆| 国产精品你懂的在线欣赏| 天天做天天摸天天爽国产一区| 精品一区二区三区影院在线午夜| 亚洲最新视频在线观看| 亚洲精品国久久99热| 亚洲一区二区三区三| 亚洲天堂免费在线观看视频| 亚洲第四色夜色| 极品美女销魂一区二区三区 | 国产精品看片你懂得| 欧美日韩精品一区二区三区 | 亚洲一区二区三区影院| 午夜在线成人av| 亚洲电影一区二区| 综合久久久久综合| 成人免费观看视频| 欧美国产精品一区二区三区| 国产成人鲁色资源国产91色综| 欧美视频一区在线观看| 国产精品美女久久久久av爽李琼 | 在线亚洲免费视频| 欧美国产日韩亚洲一区| 国产精品久久久久久久裸模| 亚洲精品乱码久久久久久久久| 亚洲成人av电影在线| 国产盗摄一区二区三区| 欧美日韩一区二区三区不卡| 亚洲国产精品99久久久久久久久| 亚洲妇女屁股眼交7| 福利一区福利二区| 色综合久久六月婷婷中文字幕| 2020日本不卡一区二区视频| 日韩精品电影在线|