婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch之深度神經網絡概念全面整理

pytorch之深度神經網絡概念全面整理

熱門標簽:企業微信地圖標注 高德地圖標注收入咋樣 地圖標注多個 B52系統電梯外呼顯示E7 銀川電話機器人電話 怎么辦理400客服電話 沈陽防封電銷電話卡 萊蕪電信外呼系統 鶴壁手機自動外呼系統違法嗎

推薦閱讀 點擊標題可跳轉

1、如何搭建pytorch環境的方法步驟

今天是第一篇文章,希望自己能堅持,加油。

深度神經網絡就是用一組函數去逼近原函數,訓練的過程就是尋找參數的過程。

1、神經網絡訓練過程

神經網絡的訓練過程如下:

  • 收集數據,整理數據
  • 實現神經網絡用于擬合目標函數
  • 做一個真實值和目標函數值直接估計誤差的損失函數,一般選擇既定的損失函數
  • 用損失函數值前向輸入值求導,
  • 再根據導數的反方向去更新網絡參數(x),目的是讓損失函數值最終為0.,最終生成模型

各層概念解釋

  • 輸入層:就是參數輸入
  • 輸出層:就是最后的輸出
  • 隱藏層(隱含層):除去其他兩層之外的層都可以叫隱藏層

模型是什么:

  • 模型包含兩部分,一部分是神經網絡的結構,一部分是各個參數,最后訓練的成果就是這個

2、基礎概念

2.1數學知識

2.1.1導數

導數在大學的時候還是學過的,雖然概念很簡單,但是過了這么多年幾乎也都忘了,連數學符號都不記得了,在復習之后才理解:就是表示數據變化的快慢,是變化率的概念,比如重力加速度,表示你自由落體之后每秒速度的增量。

數學公式是:

不重要,看不看的懂都行,因為在后面的學習中也不會讓你手動求導,框架里都有現成的函數

2.1.2 梯度

梯度的本意是一個向量(矢量),表示某一函數在該點處的方向導數沿著該方向取得最大值,即函數在該點處沿著該方向(此梯度的方向)變化最快,變化率最大(為該梯度的模)

梯度:是一個矢量,其方向上的方向導數最大,其大小正好是此最大方向導數。

2.2前向傳播和反向傳播

前向傳播就是前向調用,正常的函數調用鏈而已,沒什么特別的,破概念搞得神神秘秘的

比如

def a(input):
    return y
 
def b(input):
    return y2
# 前向傳播
def forward(input):
    y = a(input)
    y2 = b(y)

反向傳播

反向傳播就是根據誤差和學習率,將參數權重進行調整,具體的算法下次會專門寫一篇文章進行解析。

3、數據預處理手段

3.1 歸一化  (normalization)

將數據放縮到0~1區間,利用公式(x-min)/(max-min)

3.2 標準化(Standardization)

數據的標準化是將數據按比例縮放,使之落入一個小的特定區間。將數據轉化為標準的正態分布,均值為0,方差為1

3.3 正則化

正則化的主要作用是防止過擬合,對模型添加正則化項可以限制模型的復雜度,使得模型在復雜度和性能達到平衡。

3.4 獨熱碼編碼(one hot)

one hot編碼是將類別變量轉換為機器學習算法易于使用的一種形式的過程。one-hot通常用于特征的轉換

比如:一周七天,第三天可以編碼為 [0,0,1,0,0,00]

注:我把英語都補在了后面,并不是為了裝逼,只是為了下次看到這個單詞的時候知道這個單詞在表示什么。

4、數據處理庫

numpy ,pandas, matplotlib 這三個是數據分析常用的庫,也是深度學習中常用的三個庫

4.1 numpy

numpy 是優化版的python的列表,提高了運行效率,也提供了很多便利的函數,一般在使用的時候表示矩陣

numpy中的一個重要概念叫shape ,也就是表示維度

注:numpy 的api 我也使用不熟練,相信會在以后的學習過程中熟練的,使用的時候查一查,不用擔心。

4.2 pandas

Pandas 的主要數據結構是 Series (一維數據)與 DataFrame(二維數據).

[Series] 是一種類似于一維數組的對象,它由一組數據(各種Numpy數據類型)以及一組與之相關的數據標簽(即索引)組成。

DataFrame 是一個表格型的數據結構,它含有一組有序的列,每列可以是不同的值類型(數值、字符串、布爾型值)。DataFrame 既有行索引也有列索引,它可以被看做由 Series 組成的字典(共同用一個索引)。

注:pandas 可以當做Excel使用,里面的api 我也使用不熟練,不用擔心,可以掃下核心概念就好

4.3 matplotlib

Matplotlib 是畫圖用的,可以用來在學習的過程中對數據進行可視化,我還沒有學習這個庫,只會照貓畫虎,所以放輕松,只是告訴你有這么個東西,不一定現在就要掌握

5、訓練集、測試集,測試集

訓練集:用來訓練模型的數據,用來學習的

驗證集:用來驗證模型的數據,主要是看下模型的訓練情況

測試集: 訓練完成之后,驗證模型的數據

一般數據的比例為6:2:2

一個形象的比喻:

訓練集----學生的課本;學生 根據課本里的內容來掌握知識。

驗證集----作業,通過作業可以知道 不同學生學習情況、進步的速度快慢。

測試集----考試,考的題是平常都沒有見過,考察學生舉一反三的能力。

6、損失函數

損失函數用來評價模型的預測值和真實值不一樣的程度,損失函數越好,通常模型的性能越好。不同的模型用的損失函數一般也不一樣.

注:f(x) 表示預測值,Y 表示真實值,

這些只是常用的損失函數,實現不同而已,在后面的開發理解各個函數就行了,API caller 不用理解具體的實現,就像你知道快速排序的算法原理,但是沒必要自己去實現,現成的實現拿來用不香嗎?

7、優化器

優化器就是在深度學習反向傳播過程中,指引損失函數(目標函數)的各個參數往正確的方向更新合適的大小,使得更新后的各個參數讓損失函數(目標函數)值不斷逼近全局最小。

常見的幾種優化器

8、激活函數

激活函數就是對輸入進行過濾,可以理解為一個過濾器

常見的非線性激活函數通常可以分為兩類,一種是輸入單個變量輸出單個變量,如sigmoid函數,Relu函數;還有一種是輸入多個變量輸出多個變量,如Softmax函數,Maxout函數。

  • 對于二分類問題,在輸出層可以選擇 sigmoid 函數。
  • 對于多分類問題,在輸出層可以選擇 softmax 函數。
  • 由于梯度消失問題,盡量sigmoid函數和tanh的使用。
  • tanh函數由于以0為中心,通常性能會比sigmoid函數好。
  • ReLU函數是一個通用的函數,一般在隱藏層都可以考慮使用。
  • 有時候要適當對現有的激活函數稍作修改,以及考慮使用新發現的激活函數。

9、hello world

說了很多概念,搞個demo 看看,下面是一個最簡單的線性回歸的模型。

環境的安裝在文章的開頭。

import torch as t
import torch.nn as nn
import torch.optim as optim
import matplotlib.pyplot as plt
import numpy as np
 
# 學習率,也就是每次參數的移動的大小
lr = 0.01
# 訓練數據集的次數
num_epochs = 100
# 輸入參數的個數
in_size = 1
#輸出參數的個數
out_size = 1
# x 數據集
x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168],
                    [9.779], [6.182], [7.59], [2.167], [7.042],
                    [10.791], [5.313], [7.997], [3.1]], dtype=np.float32)
# y 對應的真實值
y_train = np.array([[1.7], [2.76], [2.09], [3.19], [1.694], [1.573],
                    [3.366], [2.596], [2.53], [1.221], [2.827],
                    [3.465], [1.65], [2.904], [1.3]], dtype=np.float32)
# 線性回歸網絡
class LinerRegression(nn.Module):
    def __init__(self, in_size, out_size):
        super(LinerRegression, self).__init__()
        self.fc1 = nn.Linear(in_size, out_size)
 
    def forward(self, x):
        y_hat = self.fc1(x)
        return y_hat
 
 
model = LinerRegression(in_size, out_size)
# 損失函數
lossFunc = nn.MSELoss()
# 優化器
optimizer = optim.SGD(model.parameters(), lr=lr)
# 對數據集訓練的循環次數
for epoch in range(num_epochs):
    x = t.from_numpy(x_train)
    y = t.from_numpy(y_train)
    y_hat = model(x)
    loss = lossFunc(y_hat, y)
    # 導數歸零
    optimizer.zero_grad()
    # 反向傳播,也就是修正參數,將參數往正確的方向修改
    loss.backward()
    optimizer.step()
    print("[{}/{}] loss:{:.4f}".format(epoch+1, num_epochs, loss))
 
# 畫圖看下最終的模型擬合的怎么樣
y_pred = model(t.from_numpy(x_train)).detach().numpy()
plt.plot(x_train, y_train, 'ro', label='Original Data')
plt.plot(x_train, y_pred, 'b-', label='Fitted Line')
plt.legend()
plt.show()

上面是最簡單的一個線性回歸的神經網絡,沒有隱藏層,沒有激活函數。

運行很快,因為參數很少,運行的最終結果可以看下,最終達到了我們的結果,你可以試著調整一些參數

10、總結

今天寫了很多的概念,不需要全部掌握,先混個臉熟,先有個全局觀,慢慢的認識即可,里面的公式很多,不需要看懂,be easy.

到此這篇關于pytorch之深度神經網絡概念全面整理的文章就介紹到這了,更多相關pytorch神經網絡內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Tensorflow實現AlexNet卷積神經網絡及運算時間評測
  • PyTorch實現AlexNet示例
  • PyTorch上實現卷積神經網絡CNN的方法
  • pytorch實現CNN卷積神經網絡
  • Python編程pytorch深度卷積神經網絡AlexNet詳解

標簽:三亞 安慶 呼倫貝爾 湘西 烏魯木齊 銀川 呼倫貝爾 葫蘆島

巨人網絡通訊聲明:本文標題《pytorch之深度神經網絡概念全面整理》,本文關鍵詞  pytorch,之,深度,神經網絡,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch之深度神經網絡概念全面整理》相關的同類信息!
  • 本頁收集關于pytorch之深度神經網絡概念全面整理的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    免费黄网站欧美| 成人18视频日本| 国产激情一区二区三区| 久久久久久综合| 国产精品亚洲视频| 精品少妇一区二区三区| 精品一区二区免费| wwwwxxxxx欧美| 国产成人在线电影| 欧美经典一区二区| 97久久久精品综合88久久| 亚洲欧美电影一区二区| 色综合久久88色综合天天免费| 国产精品久久免费看| 色婷婷亚洲综合| 天天射综合影视| 精品美女被调教视频大全网站| 精品综合免费视频观看| 国产欧美一二三区| 色婷婷一区二区三区四区| 婷婷国产v国产偷v亚洲高清| 日韩欧美黄色影院| 波多野结衣精品在线| 亚洲午夜一区二区三区| 精品国产成人系列| 91亚洲精华国产精华精华液| 奇米777欧美一区二区| 国产精品美女久久久久aⅴ国产馆 国产精品美女久久久久av爽李琼 国产精品美女久久久久高潮 | 国产精品国产三级国产| 一本久久a久久免费精品不卡| 亚洲午夜免费视频| 国产免费成人在线视频| 欧美日韩另类一区| 成人亚洲一区二区一| 午夜久久久影院| 国产精品久久久久一区二区三区| 欧美日韩精品电影| 91小视频在线观看| 精品系列免费在线观看| 亚洲国产精品久久一线不卡| 国产精品每日更新| 久久天堂av综合合色蜜桃网| 在线欧美日韩国产| 99国产精品久久| 国产精品一级在线| 麻豆中文一区二区| 亚洲午夜在线视频| 亚洲你懂的在线视频| 国产欧美综合在线观看第十页| 亚洲三级在线免费| 精品噜噜噜噜久久久久久久久试看| 91国偷自产一区二区开放时间| 国产激情视频一区二区三区欧美| 日韩电影免费在线看| 亚洲午夜免费电影| 一区二区成人在线| 亚洲人成人一区二区在线观看 | 日韩国产欧美在线播放| 依依成人精品视频| 综合网在线视频| 国产精品网站在线观看| 国产视频一区二区三区在线观看| 2017欧美狠狠色| 精品国产a毛片| 精品播放一区二区| 久久婷婷成人综合色| 欧美大片在线观看一区| 日韩欧美一区二区久久婷婷| 7799精品视频| 日韩欧美亚洲国产另类 | 精品国产91洋老外米糕| 精品三级av在线| 久久亚洲精华国产精华液 | 日本午夜精品视频在线观看| 亚洲一二三四区不卡| 午夜精品在线视频一区| 日日夜夜精品视频免费 | 亚洲自拍另类综合| 亚洲一二三四在线| 日本免费新一区视频| 美国十次了思思久久精品导航| 黄色资源网久久资源365| 国产成人aaa| 欧美性色aⅴ视频一区日韩精品| 777久久久精品| 欧美精品一区二区在线播放 | 久久不见久久见中文字幕免费| 国产综合一区二区| 成人午夜视频网站| 欧美午夜免费电影| 精品国产91乱码一区二区三区| 国产精品无人区| 亚洲3atv精品一区二区三区| 国产真实乱偷精品视频免| av电影在线观看一区| 欧美精品久久99| 国产精品美女久久久久久久久| 夜夜嗨av一区二区三区网页| 精品一区二区三区av| 色噜噜狠狠成人中文综合| 日韩欧美国产不卡| 激情综合网av| 成人免费看片app下载| 欧美亚洲国产一卡| 久久女同性恋中文字幕| 一区二区欧美在线观看| 麻豆成人在线观看| 一本大道久久a久久综合| 日韩欧美国产wwwww| 亚洲一卡二卡三卡四卡五卡| 精品一区二区三区免费观看| 色偷偷88欧美精品久久久| 久久久国产精品不卡| 丝袜亚洲另类欧美| 91亚洲资源网| 国产视频一区在线观看| 免费高清在线视频一区·| 色综合久久88色综合天天6 | 国产一区不卡视频| 日本道免费精品一区二区三区| 久久久美女艺术照精彩视频福利播放| 亚洲激情一二三区| jvid福利写真一区二区三区| 国产日韩影视精品| 激情六月婷婷久久| 欧美videossexotv100| 首页国产丝袜综合| 欧美午夜一区二区三区免费大片| 中文字幕中文乱码欧美一区二区| 国产一区啦啦啦在线观看| 欧美一区二区三区视频在线观看| 一区二区三区日韩在线观看| 一本大道av伊人久久综合| 亚洲视频一二三区| 色综合中文字幕国产 | 99久久婷婷国产| 欧美激情综合网| 国产suv精品一区二区6| 精品国产sm最大网站免费看| 久久激五月天综合精品| 精品日韩一区二区三区免费视频| 日本不卡一二三区黄网| 91精品国产综合久久蜜臀| 视频一区在线播放| 日韩欧美的一区| 狠狠色狠狠色综合系列| 国产欧美一区二区精品性色超碰 | 欧美影院精品一区| 五月综合激情网| 日韩免费成人网| 国产成人高清视频| 激情五月播播久久久精品| 亚洲精品在线一区二区| 国产大片一区二区| ...xxx性欧美| 欧美亚洲一区二区在线| 青草国产精品久久久久久| 久久婷婷色综合| 91性感美女视频| 日韩国产欧美在线观看| 久久久精品国产免费观看同学| 97久久精品人人做人人爽50路| 亚洲人成小说网站色在线| 欧美另类z0zxhd电影| 国产精品一区二区你懂的| 亚洲视频一区二区免费在线观看 | 久久精品这里都是精品| 波多野结衣一区二区三区 | 一区二区久久久| 日韩免费观看高清完整版在线观看| 国产精品一区免费视频| 亚洲一二三专区| 久久久久久黄色| 欧美日韩综合在线| 国产揄拍国内精品对白| 夜夜嗨av一区二区三区四季av| 精品国产污污免费网站入口| 成人av网站在线| 玖玖九九国产精品| 亚洲一卡二卡三卡四卡无卡久久| 欧美成人一区二区三区片免费 | 精品嫩草影院久久| 99久久久免费精品国产一区二区| 污片在线观看一区二区| 国产精品成人一区二区艾草| 精品入口麻豆88视频| 欧美亚洲自拍偷拍| 成人激情午夜影院| 国产真实乱子伦精品视频| 日韩影视精彩在线| 亚洲另类春色校园小说| 日本一区二区三区在线不卡 | 久久婷婷一区二区三区| 91啦中文在线观看| 国产99久久久精品| 麻豆免费看一区二区三区| 亚洲图片自拍偷拍| 18成人在线观看| 中文字幕亚洲精品在线观看| 日本一区二区三区久久久久久久久不|