婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > 使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼

使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼

熱門標(biāo)簽:南京crm外呼系統(tǒng)排名 鄭州智能外呼系統(tǒng)中心 電銷機(jī)器人 金倫通信 賓館能在百度地圖標(biāo)注嗎 crm電銷機(jī)器人 云南地圖標(biāo)注 400電話 申請(qǐng) 條件 汕頭電商外呼系統(tǒng)供應(yīng)商 北京外呼電銷機(jī)器人招商

只有一百行左右代碼,應(yīng)該還是比較好理解的。

首先看一下結(jié)果,

The end error is:[0.05344101]

發(fā)現(xiàn)還是不錯(cuò)的。如果不想看講解,就直接跳到文末,有所有的代碼,安裝numpy庫(kù)就能夠跑。

二進(jìn)制加法

這個(gè)沒啥好說(shuō)的,就是逢二進(jìn)一,不知道的就看看計(jì)算機(jī)組成原理的相關(guān)內(nèi)容吧。

RNN主要學(xué)兩件事,一個(gè)是前一位的進(jìn)位,一個(gè)是當(dāng)前位的加法操作。只告訴當(dāng)前階段和前一階段的計(jì)算結(jié)果,讓網(wǎng)絡(luò)自己學(xué)習(xí)加法和進(jìn)位操作。

具體代碼

既然是神經(jīng)網(wǎng)絡(luò),肯定就非線性的,首先是sigmoid函數(shù),這個(gè)要是不清楚,就看看相關(guān)博客了解一下。

反向傳播的時(shí)候需要sigmoid函數(shù)的導(dǎo)數(shù)值,所以把兩個(gè)函數(shù)就直接貼在下面了。

# 前向傳播
def sigmoid(in_x):
  output = 1 / (1 + np.exp(-in_x))
  return output
# 反向傳播
def sigmoid_output_to_derivative(output):
  return output * (1 - output)

定義一個(gè)字典,因?yàn)榇龝?huì)兒要進(jìn)行十進(jìn)制和二進(jìn)制之間的轉(zhuǎn)換,我們用字典進(jìn)行存儲(chǔ)他們之間的對(duì)應(yīng)關(guān)系。

(在這里我們只選用八位二進(jìn)制)

int2binary = {}
binary_dim = 8

largest_number = pow(2, binary_dim)
binary = np.unpackbits(
  np.array([range(largest_number)], dtype=np.uint8).T, axis=1)
for i in range(largest_number):
  int2binary[i] = binary[i]

再接著就是對(duì)我們的RNN進(jìn)行初始化操作。

alpha = 0.1
input_dim = 2
hidden_dim = 16
output_dim = 1

接著是生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值以及反向傳播時(shí)對(duì)權(quán)值矩陣進(jìn)行更新的存儲(chǔ)。

# 生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值(在0,1之間)
synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1
synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1
synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1
# 反向傳播對(duì)權(quán)重值的矩陣進(jìn)行更新
synapse_0_update = np.zeros_like(synapse_0)
synapse_1_update = np.zeros_like(synapse_1)
synapse_h_update = np.zeros_like(synapse_h)

RNN

我們進(jìn)行10萬(wàn)次的迭代訓(xùn)練。

我們進(jìn)行的是加法,所以需要將值找到。最大取八位,所以a, b, c都不能超過,因?yàn)閍+b=c,所以a, b不能超過最大的一半。其中l(wèi)argest_number表示8位二進(jìn)制數(shù)對(duì)應(yīng)的最大的十進(jìn)制數(shù)值。

# 最大取八位,所以a, b, c都不能超過,因?yàn)閍+b=c,所以a, b不能超過最大的一半
a_int = np.random.randint(largest_number / 2)
a = int2binary[a_int]

b_int = np.random.randint(largest_number / 2) 
b = int2binary[b_int] 

c_int = a_int + b_int
c = int2binary[c_int]

我們定義一個(gè)d來(lái)存儲(chǔ)我們的預(yù)測(cè)值與實(shí)際值c進(jìn)行比較,判斷網(wǎng)絡(luò)的能力。并且定義一個(gè)overallError來(lái)存儲(chǔ)error值,并將初值設(shè)為0。

 d = np.zeros_like(c)

 overallError = 0

最后我們?cè)谶M(jìn)行反向傳播的時(shí)候,會(huì)計(jì)算一個(gè)loss值,在訓(xùn)練網(wǎng)絡(luò)的過程中,我們需要計(jì)算w1,w2分別對(duì)這個(gè)loss值的影響。

layer_2_deltas = list()
layer_1_values = list()
# 因?yàn)榈谝淮蔚鷷?huì)用到l1的值,所以我們需要將列表用0來(lái)填充
layer_1_values.append(np.zeros(hidden_dim))
future_layer_1_delta = np.zeros(hidden_dim)

我們需要先進(jìn)行前向傳播,再進(jìn)行反向傳播。

在進(jìn)行前向傳播的過程中,我們需要將兩個(gè)二進(jìn)制傳入,從最后一位開始,一層一層地通過sigmoid函數(shù),得到預(yù)測(cè)值。然后通過預(yù)測(cè)值與準(zhǔn)確值之間的差值設(shè)為l2層的loss值。有了這個(gè)loss值,我們就可以算出剛剛定義的layer_2_deltas(l2 層的權(quán)重參數(shù))

for position in range(binary_dim):
  X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]])
  y = np.array([[c[binary_dim - position - 1]]]).T

  layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h))

  layer_2 = sigmoid(np.dot(layer_1, synapse_1))

  layer_2_error = y - layer_2
  layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2))
  overallError += np.abs(layer_2_error[0])

  d[binary_dim - position - 1] = np.round(layer_2[0][0])

  layer_1_values.append(copy.deepcopy(layer_1))

然后進(jìn)行反向傳播,也就是從最高位往后走。(具體的解釋放在代碼的注釋中了)

for position in range(binary_dim):
  X = np.array([[a[position], b[position]]])
  # 從參數(shù)列表中反向依次取值
  layer_1 = layer_1_values[-position - 1]
  # 因?yàn)橐M(jìn)行反向傳播,所以還需要取到l1層的前一位的value
  prev_layer_1 = layer_1_values[-position - 2]

 # l2也是如此,delta列表中反向依次取值
  layer_2_delta = layer_2_deltas[-position - 1]
  # 通過公式進(jìn)行計(jì)算l1的delta值
  layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot(synapse_1.T)) * sigmoid_output_to_derivative(layer_1)

 # 然后分別對(duì)w0, w1和wh進(jìn)行更新
  synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta)
  synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta)
  synapse_0_update += X.T.dot(layer_1_delta)

  future_layer_1_delta = layer_1_delta

然后再前向傳播和反向傳播結(jié)束之后,引入α \alphaα值進(jìn)行參數(shù)的更新,并將updata重新置為0,以方便下一次循環(huán)使用。

synapse_0 += synapse_0_update * alpha
synapse_1 += synapse_1_update * alpha
synapse_h += synapse_h_update * alpha

synapse_0_update *= 0
synapse_1_update *= 0
synapse_h_update *= 0

最后就是打印訓(xùn)練結(jié)果了,因?yàn)橛?xùn)練次數(shù)過多,所以這邊設(shè)計(jì)每訓(xùn)練1萬(wàn)次打印一次結(jié)果。

  if j % 10000 == 0:
    print(str(j) + "/100000 :The error is:" + str(overallError))

運(yùn)行結(jié)果
0/100000 :The error is:[3.45638663]
10000/100000 :The error is:[0.3231264]
20000/100000 :The error is:[0.27153112]
30000/100000 :The error is:[0.1603061]
40000/100000 :The error is:[0.10004929]
50000/100000 :The error is:[0.11245508]
60000/100000 :The error is:[0.11951541]
70000/100000 :The error is:[0.07859761]
80000/100000 :The error is:[0.06742156]
90000/100000 :The error is:[0.08218885]
The end error is:[0.05344101]

最終代碼

import copy
import numpy as np

np.random.seed(0)

def sigmoid(in_x):
  output = 1 / (1 + np.exp(-in_x))
  return output

def sigmoid_output_to_derivative(output):
  return output * (1 - output)

int2binary = {}
binary_dim = 8

largest_number = pow(2, binary_dim)
binary = np.unpackbits(
  np.array([range(largest_number)], dtype=np.uint8).T, axis=1)
for i in range(largest_number):
  int2binary[i] = binary[i]

alpha = 0.1
input_dim = 2
hidden_dim = 16
output_dim = 1

# 生成神經(jīng)網(wǎng)絡(luò)各層的權(quán)重值(在0,1之間)
synapse_0 = 2 * np.random.random((input_dim, hidden_dim)) - 1
synapse_1 = 2 * np.random.random((hidden_dim, output_dim)) - 1
synapse_h = 2 * np.random.random((hidden_dim, hidden_dim)) - 1
# 反向傳播對(duì)權(quán)重值的矩陣進(jìn)行更新
synapse_0_update = np.zeros_like(synapse_0)
synapse_1_update = np.zeros_like(synapse_1)
synapse_h_update = np.zeros_like(synapse_h)

for j in range(100000):
  # 最大取八位,所以a, b, c都不能超過,因?yàn)閍+b=c,所以a, b不能超過最大的一半
  a_int = np.random.randint(largest_number / 2) 
  a = int2binary[a_int] 

  b_int = np.random.randint(largest_number / 2) 
  b = int2binary[b_int] 

  c_int = a_int + b_int
  c = int2binary[c_int]

  d = np.zeros_like(c)

  overallError = 0

  layer_2_deltas = list()
  layer_1_values = list()
 # 因?yàn)榈谝淮蔚鷷?huì)用到l1的值,所以我們需要將列表用0來(lái)填充
  layer_1_values.append(np.zeros(hidden_dim))
  future_layer_1_delta = np.zeros(hidden_dim)

  for position in range(binary_dim):
    X = np.array([[a[binary_dim - position - 1], b[binary_dim - position - 1]]])
    y = np.array([[c[binary_dim - position - 1]]]).T

    layer_1 = sigmoid(np.dot(X, synapse_0) + np.dot(layer_1_values[-1], synapse_h))

    layer_2 = sigmoid(np.dot(layer_1, synapse_1))

    layer_2_error = y - layer_2
    layer_2_deltas.append((layer_2_error) * sigmoid_output_to_derivative(layer_2))
    overallError += np.abs(layer_2_error[0])

    d[binary_dim - position - 1] = np.round(layer_2[0][0])

 layer_1_values.append(copy.deepcopy(layer_1))

  for position in range(binary_dim):
    X = np.array([[a[position], b[position]]])
    layer_1 = layer_1_values[-position - 1]
    prev_layer_1 = layer_1_values[-position - 2]

    layer_2_delta = layer_2_deltas[-position - 1]
    
    layer_1_delta = (future_layer_1_delta.dot(synapse_h.T) + layer_2_delta.dot(
      synapse_1.T)) * sigmoid_output_to_derivative(layer_1)

    synapse_1_update += np.atleast_2d(layer_1).T.dot(layer_2_delta)
    synapse_h_update += np.atleast_2d(prev_layer_1).T.dot(layer_1_delta)
    synapse_0_update += X.T.dot(layer_1_delta)

    future_layer_1_delta = layer_1_delta

  synapse_0 += synapse_0_update * alpha
  synapse_1 += synapse_1_update * alpha
  synapse_h += synapse_h_update * alpha

  synapse_0_update *= 0
  synapse_1_update *= 0
  synapse_h_update *= 0

  if j % 10000 == 0:
    print(str(j) + "/100000 :The error is:" + str(overallError))

print("The end error is:" + str(overallError))

到此這篇關(guān)于使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼的文章就介紹到這了,更多相關(guān)Python RNN二進(jìn)制加法內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python實(shí)現(xiàn)代碼審查自動(dòng)回復(fù)消息
  • Python解析m3u8拼接下載mp4視頻文件的示例代碼
  • Python實(shí)現(xiàn)我的世界小游戲源代碼
  • Python爬取你好李煥英豆瓣短評(píng)生成詞云的示例代碼
  • 七種Python代碼審查工具推薦

標(biāo)簽:梅州 石家莊 錫林郭勒盟 浙江 昆明 懷化 文山 西寧

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼》,本文關(guān)鍵詞  使用,Python,建立,RNN,實(shí)現(xiàn),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于使用Python建立RNN實(shí)現(xiàn)二進(jìn)制加法的示例代碼的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    丰满亚洲少妇av| 日本久久一区二区三区| 国产一区二区三区免费播放| 久久久精品2019中文字幕之3| 日本美女一区二区| 国产精品少妇自拍| 欧美日韩精品久久久| 国产在线视频一区二区| 亚洲一区在线视频| 国产精品日产欧美久久久久| 欧美二区三区的天堂| 99re8在线精品视频免费播放| 免费看欧美美女黄的网站| 中文字幕在线观看一区| 2024国产精品| 精品久久久久99| 欧洲另类一二三四区| 国产成人在线视频免费播放| 日韩精品亚洲一区二区三区免费| 亚洲国产精品精华液ab| 久久五月婷婷丁香社区| wwwwxxxxx欧美| 欧美一区二区成人6969| 欧美日本韩国一区二区三区视频| aaa亚洲精品一二三区| 成人黄色片在线观看| 国产麻豆视频一区二区| 大美女一区二区三区| 麻豆国产一区二区| 激情五月激情综合网| 国产成人综合自拍| 国产1区2区3区精品美女| 99九九99九九九视频精品| 欧美日韩高清在线| 欧美色爱综合网| 91精品免费在线| 欧美国产成人精品| 国产日韩欧美制服另类| 中文字幕不卡在线观看| 一区二区三区久久| 一区二区三区欧美亚洲| 日韩精品三区四区| 成人丝袜18视频在线观看| 99精品视频在线免费观看| 色菇凉天天综合网| 久久久99久久| 美日韩一区二区| 欧美在线小视频| 亚洲欧美自拍偷拍色图| 久久99精品久久只有精品| 国产高清视频一区| 欧美一区二区三区电影| 一区在线观看免费| 国产成人午夜片在线观看高清观看| 男男视频亚洲欧美| 色一区在线观看| 99精品视频在线免费观看| 久久久综合精品| 日本成人中文字幕在线视频| 91在线视频在线| 最新日韩av在线| 99久久久久免费精品国产 | 亚洲免费观看视频| 国产一区二区视频在线| 日韩亚洲欧美中文三级| 成人久久视频在线观看| 一区二区日韩电影| 久久久国产综合精品女国产盗摄| 99re视频精品| 欧美国产一区二区在线观看| 亚洲国产精品成人久久综合一区 | 欧美日韩综合在线免费观看| 蜜桃传媒麻豆第一区在线观看| 久久综合九色综合97婷婷女人| 91视频一区二区三区| 国产一区二区三区在线看麻豆| 一区二区三区欧美亚洲| 亚洲精品在线三区| 69堂国产成人免费视频| 一本色道**综合亚洲精品蜜桃冫| 美女国产一区二区| 日本不卡高清视频| 亚洲五月六月丁香激情| 国产精品久久久久aaaa樱花 | 日韩亚洲欧美高清| 成人av电影在线网| 九色综合狠狠综合久久| 日本中文字幕一区二区有限公司| 亚洲欧洲一区二区在线播放| 欧美老肥妇做.爰bbww| 91美女蜜桃在线| 欧美性生交片4| 日韩亚洲欧美成人一区| 日本一区二区三区四区在线视频 | 亚洲精品大片www| 国产精品免费看片| 亚洲午夜激情av| 蜜臀91精品一区二区三区| 国产一区二区在线电影| av在线不卡免费看| 91精品国产综合久久久久久久 | 蜜桃一区二区三区四区| 捆绑调教美女网站视频一区| 国产精品综合一区二区三区| 成人深夜视频在线观看| 欧美视频一区二区三区| 亚洲国产精品黑人久久久| 国产精品国产三级国产普通话三级 | 国产欧美日韩综合精品一区二区| 国产三级一区二区三区| 亚洲一区二区偷拍精品| 国产精品一区二区x88av| 欧美少妇性性性| 亚洲男人天堂av网| 国产成人午夜视频| 日韩一区二区不卡| 午夜精品视频一区| 日本高清不卡视频| 精品一二三四区| 色欧美88888久久久久久影院| 久久免费精品国产久精品久久久久| 综合久久久久久| 99国产欧美另类久久久精品| 久久久电影一区二区三区| 日韩电影在线免费| 91精品国产综合久久久久| 综合激情成人伊人| 色噜噜久久综合| 亚州成人在线电影| 777亚洲妇女| 黄网站免费久久| 久久中文娱乐网| 成人动漫视频在线| 亚洲精品v日韩精品| 色诱视频网站一区| 亚欧色一区w666天堂| 欧美日韩中文精品| 看电影不卡的网站| 欧美精品一区二区三| 国产69精品久久久久毛片| 亚洲欧洲日韩女同| 欧美理论片在线| 国内精品在线播放| 成人欧美一区二区三区小说| 欧美影视一区二区三区| 国产伦精品一区二区三区免费| 26uuu亚洲综合色| 色综合久久综合网欧美综合网 | 欧美aⅴ一区二区三区视频| 欧美另类一区二区三区| 国产精品亚洲人在线观看| 亚洲图片你懂的| 久久综合九色欧美综合狠狠 | 一本大道综合伊人精品热热| 首页国产欧美日韩丝袜| 久久久www免费人成精品| 欧美丝袜第三区| 成人av在线影院| 久久精品国产**网站演员| 日韩理论片中文av| 欧美国产欧美亚州国产日韩mv天天看完整| 91网页版在线| 国产91精品免费| 韩国理伦片一区二区三区在线播放| 一二三四区精品视频| 国产精品女主播在线观看| 精品日韩一区二区三区| 精品国产一区二区精华| 欧美日本一区二区在线观看| 在线观看日韩高清av| 在线精品视频免费观看| 欧美在线不卡一区| 欧美高清视频在线高清观看mv色露露十八 | 日韩成人精品在线观看| 自拍偷拍亚洲激情| 自拍偷自拍亚洲精品播放| 国产三级精品视频| 国产精品国产三级国产三级人妇| 国产精品免费丝袜| 欧美成人福利视频| 久久久亚洲高清| 一区二区三区美女视频| 日韩av高清在线观看| 国产福利一区二区| 欧美调教femdomvk| 久久久久久黄色| 亚洲大型综合色站| 丁香一区二区三区| 欧美日韩视频专区在线播放| 久久婷婷久久一区二区三区| 一区二区三区 在线观看视频| 国产麻豆成人精品| 欧美日韩精品电影| 国产精品久久久久久久久晋中| 婷婷开心激情综合| 91国偷自产一区二区三区观看| 精品国精品国产| 午夜欧美大尺度福利影院在线看| 成人动漫精品一区二区| 精品免费视频一区二区|