婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Pytorch實現(xiàn)WGAN用于動漫頭像生成

Pytorch實現(xiàn)WGAN用于動漫頭像生成

熱門標簽:電銷機器人系統(tǒng)廠家鄭州 正安縣地圖標注app 地圖地圖標注有嘆號 阿里電話機器人對話 qt百度地圖標注 遼寧智能外呼系統(tǒng)需要多少錢 舉辦過冬奧會的城市地圖標注 螳螂科技外呼系統(tǒng)怎么用 400電話申請資格

WGAN與GAN的不同

  • 去除sigmoid
  • 使用具有動量的優(yōu)化方法,比如使用RMSProp
  • 要對Discriminator的權(quán)重做修整限制以確保lipschitz連續(xù)約

WGAN實戰(zhàn)卷積生成動漫頭像 

import torch
import torch.nn as nn
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
from torchvision.utils import save_image
import os
from anime_face_generator.dataset import ImageDataset
 
batch_size = 32
num_epoch = 100
z_dimension = 100
dir_path = './wgan_img'
 
# 創(chuàng)建文件夾
if not os.path.exists(dir_path):
  os.mkdir(dir_path)
 
 
def to_img(x):
  """因為我們在生成器里面用了tanh"""
  out = 0.5 * (x + 1)
  return out
 
 
dataset = ImageDataset()
dataloader = DataLoader(dataset, batch_size=32, shuffle=False)
 
 
class Generator(nn.Module):
  def __init__(self):
    super().__init__()
 
    self.gen = nn.Sequential(
      # 輸入是一個nz維度的噪聲,我們可以認為它是一個1*1*nz的feature map
      nn.ConvTranspose2d(100, 512, 4, 1, 0, bias=False),
      nn.BatchNorm2d(512),
      nn.ReLU(True),
      # 上一步的輸出形狀:(512) x 4 x 4
      nn.ConvTranspose2d(512, 256, 4, 2, 1, bias=False),
      nn.BatchNorm2d(256),
      nn.ReLU(True),
      # 上一步的輸出形狀: (256) x 8 x 8
      nn.ConvTranspose2d(256, 128, 4, 2, 1, bias=False),
      nn.BatchNorm2d(128),
      nn.ReLU(True),
      # 上一步的輸出形狀: (256) x 16 x 16
      nn.ConvTranspose2d(128, 64, 4, 2, 1, bias=False),
      nn.BatchNorm2d(64),
      nn.ReLU(True),
      # 上一步的輸出形狀:(256) x 32 x 32
      nn.ConvTranspose2d(64, 3, 5, 3, 1, bias=False),
      nn.Tanh() # 輸出范圍 -1~1 故而采用Tanh
      # nn.Sigmoid()
      # 輸出形狀:3 x 96 x 96
    )
 
  def forward(self, x):
    x = self.gen(x)
    return x
 
  def weight_init(m):
    # weight_initialization: important for wgan
    class_name = m.__class__.__name__
    if class_name.find('Conv') != -1:
      m.weight.data.normal_(0, 0.02)
    elif class_name.find('Norm') != -1:
      m.weight.data.normal_(1.0, 0.02)
 
 
class Discriminator(nn.Module):
  def __init__(self):
    super().__init__()
    self.dis = nn.Sequential(
      nn.Conv2d(3, 64, 5, 3, 1, bias=False),
      nn.LeakyReLU(0.2, inplace=True),
      # 輸出 (64) x 32 x 32
 
      nn.Conv2d(64, 128, 4, 2, 1, bias=False),
      nn.BatchNorm2d(128),
      nn.LeakyReLU(0.2, inplace=True),
      # 輸出 (128) x 16 x 16
 
      nn.Conv2d(128, 256, 4, 2, 1, bias=False),
      nn.BatchNorm2d(256),
      nn.LeakyReLU(0.2, inplace=True),
      # 輸出 (256) x 8 x 8
 
      nn.Conv2d(256, 512, 4, 2, 1, bias=False),
      nn.BatchNorm2d(512),
      nn.LeakyReLU(0.2, inplace=True),
      # 輸出 (512) x 4 x 4
 
      nn.Conv2d(512, 1, 4, 1, 0, bias=False),
      nn.Flatten(),
      # nn.Sigmoid() # 輸出一個數(shù)(概率)
    )
 
  def forward(self, x):
    x = self.dis(x)
    return x
 
  def weight_init(m):
    # weight_initialization: important for wgan
    class_name = m.__class__.__name__
    if class_name.find('Conv') != -1:
      m.weight.data.normal_(0, 0.02)
    elif class_name.find('Norm') != -1:
      m.weight.data.normal_(1.0, 0.02)
 
 
def save(model, filename="model.pt", out_dir="out/"):
  if model is not None:
    if not os.path.exists(out_dir):
      os.mkdir(out_dir)
    torch.save({'model': model.state_dict()}, out_dir + filename)
  else:
    print("[ERROR]:Please build a model!!!")
 
 
import QuickModelBuilder as builder
 
if __name__ == '__main__':
  one = torch.FloatTensor([1]).cuda()
  mone = -1 * one
 
  is_print = True
  # 創(chuàng)建對象
  D = Discriminator()
  G = Generator()
  D.weight_init()
  G.weight_init()
 
  if torch.cuda.is_available():
    D = D.cuda()
    G = G.cuda()
 
  lr = 2e-4
  d_optimizer = torch.optim.RMSprop(D.parameters(), lr=lr, )
  g_optimizer = torch.optim.RMSprop(G.parameters(), lr=lr, )
  d_scheduler = torch.optim.lr_scheduler.ExponentialLR(d_optimizer, gamma=0.99)
  g_scheduler = torch.optim.lr_scheduler.ExponentialLR(g_optimizer, gamma=0.99)
 
  fake_img = None
 
  # ##########################進入訓練##判別器的判斷過程#####################
  for epoch in range(num_epoch): # 進行多個epoch的訓練
    pbar = builder.MyTqdm(epoch=epoch, maxval=len(dataloader))
    for i, img in enumerate(dataloader):
      num_img = img.size(0)
      real_img = img.cuda() # 將tensor變成Variable放入計算圖中
      # 這里的優(yōu)化器是D的優(yōu)化器
      for param in D.parameters():
        param.requires_grad = True
      # ########判別器訓練train#####################
      # 分為兩部分:1、真的圖像判別為真;2、假的圖像判別為假
 
      # 計算真實圖片的損失
      d_optimizer.zero_grad() # 在反向傳播之前,先將梯度歸0
      real_out = D(real_img) # 將真實圖片放入判別器中
      d_loss_real = real_out.mean(0).view(1)
      d_loss_real.backward(one)
 
      # 計算生成圖片的損失
      z = torch.randn(num_img, z_dimension).cuda() # 隨機生成一些噪聲
      z = z.reshape(num_img, z_dimension, 1, 1)
      fake_img = G(z).detach() # 隨機噪聲放入生成網(wǎng)絡中,生成一張假的圖片。 # 避免梯度傳到G,因為G不用更新, detach分離
      fake_out = D(fake_img) # 判別器判斷假的圖片,
      d_loss_fake = fake_out.mean(0).view(1)
      d_loss_fake.backward(mone)
 
      d_loss = d_loss_fake - d_loss_real
      d_optimizer.step() # 更新參數(shù)
 
      # 每次更新判別器的參數(shù)之后把它們的絕對值截斷到不超過一個固定常數(shù)c=0.01
      for parm in D.parameters():
        parm.data.clamp_(-0.01, 0.01)
 
      # ==================訓練生成器============================
      # ###############################生成網(wǎng)絡的訓練###############################
      for param in D.parameters():
        param.requires_grad = False
 
      # 這里的優(yōu)化器是G的優(yōu)化器,所以不需要凍結(jié)D的梯度,因為不是D的優(yōu)化器,不會更新D
      g_optimizer.zero_grad() # 梯度歸0
 
      z = torch.randn(num_img, z_dimension).cuda()
      z = z.reshape(num_img, z_dimension, 1, 1)
      fake_img = G(z) # 隨機噪聲輸入到生成器中,得到一副假的圖片
      output = D(fake_img) # 經(jīng)過判別器得到的結(jié)果
      # g_loss = criterion(output, real_label) # 得到的假的圖片與真實的圖片的label的loss
      g_loss = torch.mean(output).view(1)
      # bp and optimize
      g_loss.backward(one) # 進行反向傳播
      g_optimizer.step() # .step()一般用在反向傳播后面,用于更新生成網(wǎng)絡的參數(shù)
 
      # 打印中間的損失
      pbar.set_right_info(d_loss=d_loss.data.item(),
                g_loss=g_loss.data.item(),
                real_scores=real_out.data.mean().item(),
                fake_scores=fake_out.data.mean().item(),
                )
      pbar.update()
      try:
        fake_images = to_img(fake_img.cpu())
        save_image(fake_images, dir_path + '/fake_images-{}.png'.format(epoch + 1))
      except:
        pass
      if is_print:
        is_print = False
        real_images = to_img(real_img.cpu())
        save_image(real_images, dir_path + '/real_images.png')
    pbar.finish()
    d_scheduler.step()
    g_scheduler.step()
    save(D, "wgan_D.pt")
    save(G, "wgan_G.pt")

到此這篇關于Pytorch實現(xiàn)WGAN用于動漫頭像生成的文章就介紹到這了,更多相關Pytorch實現(xiàn)WGAN用于動漫頭像生成內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • PyTorch 隨機數(shù)生成占用 CPU 過高的解決方法
  • Pytorch 保存模型生成圖片方式
  • Pytorch使用MNIST數(shù)據(jù)集實現(xiàn)CGAN和生成指定的數(shù)字方式
  • pytorch GAN生成對抗網(wǎng)絡實例
  • Pytorch實現(xiàn)基于CharRNN的文本分類與生成示例
  • pytorch::Dataloader中的迭代器和生成器應用詳解

標簽:合肥 淘寶好評回訪 濟源 阜新 興安盟 昭通 信陽 隨州

巨人網(wǎng)絡通訊聲明:本文標題《Pytorch實現(xiàn)WGAN用于動漫頭像生成》,本文關鍵詞  Pytorch,實現(xiàn),WGAN,用于,動漫,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關。
  • 相關文章
  • 下面列出與本文章《Pytorch實現(xiàn)WGAN用于動漫頭像生成》相關的同類信息!
  • 本頁收集關于Pytorch實現(xiàn)WGAN用于動漫頭像生成的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    97se亚洲国产综合自在线观| 成人黄页毛片网站| 激情综合亚洲精品| 欧美xingq一区二区| 蜜桃在线一区二区三区| 日韩精品一区二区三区老鸭窝| 日韩精品成人一区二区在线| 欧美一区二区三区日韩| 六月丁香婷婷久久| 26uuu亚洲| 成人av动漫网站| 亚洲国产精品精华液2区45| 免费在线欧美视频| 国产欧美视频在线观看| 91视频在线观看| 午夜一区二区三区在线观看| 日韩丝袜美女视频| jlzzjlzz国产精品久久| 亚洲午夜精品久久久久久久久| 欧美日韩一区不卡| 国产精品123| 亚洲主播在线播放| 欧美不卡在线视频| 99国产麻豆精品| 奇米精品一区二区三区在线观看一| 精品日韩在线观看| 成人久久18免费网站麻豆| 一区二区三区不卡视频在线观看| 91麻豆精品国产91久久久久久久久| 韩国v欧美v亚洲v日本v| 一区二区国产盗摄色噜噜| 91精品国产免费| 99riav久久精品riav| 精品在线播放免费| 亚洲一区二区三区四区在线 | 水蜜桃久久夜色精品一区的特点| 日韩欧美国产综合| 91麻豆福利精品推荐| 日本va欧美va欧美va精品| 国产精品福利av| 精品少妇一区二区三区视频免付费| 一本一本大道香蕉久在线精品| 国产一区二区三区四| 午夜欧美在线一二页| 亚洲私人黄色宅男| 国产午夜精品在线观看| 91精品国产综合久久精品app| 成人a级免费电影| 激情深爱一区二区| 午夜欧美大尺度福利影院在线看| 国产精品区一区二区三区| 欧美xxxx在线观看| 欧美美女直播网站| 色狠狠一区二区三区香蕉| 国产九九视频一区二区三区| 亚洲成人精品一区二区| 亚洲欧美日韩一区| 中文字幕永久在线不卡| 欧美丰满高潮xxxx喷水动漫| 91免费看视频| 国产精品香蕉一区二区三区| 免费观看在线综合| 五月天国产精品| 亚洲国产日产av| 日本一区二区成人在线| 久久久高清一区二区三区| 国产午夜精品理论片a级大结局 | 国产一区二区三区在线观看免费| 日本美女视频一区二区| 亚洲va欧美va人人爽午夜| 午夜激情一区二区三区| 亚洲高清免费在线| 亚洲第一主播视频| 亚洲一级不卡视频| 国产精品久久久久久亚洲伦| 中文字幕永久在线不卡| 一区二区欧美视频| 亚洲国产精品嫩草影院| 亚洲国产精品尤物yw在线观看| 五月婷婷色综合| 久久99国产精品免费网站| 国产成人免费视频精品含羞草妖精| 成人综合日日夜夜| 91福利视频网站| 日韩午夜中文字幕| 久久精品免费在线观看| 亚洲天堂福利av| 日韩精品乱码免费| 国产精品系列在线观看| 欧美在线你懂得| 日韩一二三四区| 久久久精品日韩欧美| 国产精品美女久久久久高潮| 亚洲一区二区三区在线看| 韩国av一区二区| 一本久久精品一区二区| 欧美午夜精品理论片a级按摩| 日韩欧美精品在线视频| 亚洲欧美一区二区视频| 国产美女精品在线| 国产成人h网站| 欧美人成免费网站| 日本一区二区三区国色天香| 亚洲天堂成人网| 久久精品二区亚洲w码| 99国产精品久久| 日韩一级欧美一级| 国产欧美在线观看一区| 午夜av区久久| 成人va在线观看| 精品国产一区二区三区久久影院| 1区2区3区国产精品| 美国av一区二区| 欧美在线小视频| 中文字幕一区免费在线观看| 久久91精品国产91久久小草| 日本电影欧美片| 国产精品人人做人人爽人人添| 丝袜美腿亚洲色图| 99这里都是精品| 久久久国产精品麻豆| 免费观看91视频大全| 91福利社在线观看| 国产精品国产三级国产普通话三级 | 国产精品一区二区91| 欧美日韩精品一区二区三区蜜桃 | 成人aaaa免费全部观看| 欧美网站一区二区| 26uuu成人网一区二区三区| 亚洲成av人影院| 日本韩国一区二区| 中文字幕欧美区| 亚洲综合在线电影| 成人aa视频在线观看| 亚洲国产高清aⅴ视频| 国精产品一区一区三区mba视频 | 日韩制服丝袜先锋影音| 一本在线高清不卡dvd| 一区二区三区四区亚洲| 色综合色综合色综合色综合色综合| 欧美国产在线观看| 国产成人综合网站| 中文一区二区在线观看| a4yy欧美一区二区三区| 亚洲日本护士毛茸茸| 99re这里只有精品视频首页| 亚洲免费观看在线视频| 欧美中文字幕一区| 日韩国产欧美在线观看| 日韩女优视频免费观看| 国产又黄又大久久| 国产精品久久久一本精品| 99久久精品免费观看| 亚洲黄色片在线观看| 欧美日韩视频一区二区| 日韩电影在线一区二区| 337p粉嫩大胆色噜噜噜噜亚洲| 国产精品69毛片高清亚洲| 国产精品色在线| 欧美三级韩国三级日本一级| 日本中文字幕不卡| 久久久久久久电影| 91免费看片在线观看| 日韩中文字幕亚洲一区二区va在线| 日韩免费视频一区二区| 国产suv精品一区二区6| 亚洲人精品一区| 337p亚洲精品色噜噜噜| 久久99精品国产麻豆婷婷| 国产精品电影一区二区| 欧美日韩精品福利| 国产91丝袜在线播放九色| 亚洲国产成人av网| 久久青草国产手机看片福利盒子| 91麻豆免费看片| 精品一区二区成人精品| 亚洲激情男女视频| 2023国产精品| 欧美美女一区二区在线观看| 国产99久久久国产精品| 丝袜美腿高跟呻吟高潮一区| 国产性色一区二区| 欧美亚洲高清一区| 99精品在线观看视频| 久久99精品国产| 五月婷婷综合激情| 亚洲精品视频一区| wwww国产精品欧美| 色欧美片视频在线观看在线视频| 久久97超碰国产精品超碰| 亚洲国产美女搞黄色| 国产精品久久久久久久久久久免费看 | 日本不卡一二三区黄网| 亚洲日穴在线视频| 中文字幕成人网| 国产色91在线| 欧美一区午夜精品| 欧美日韩国产小视频| 色诱亚洲精品久久久久久| 国产成人亚洲精品青草天美|