婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識(shí)庫 > 手把手教你使用TensorFlow2實(shí)現(xiàn)RNN

手把手教你使用TensorFlow2實(shí)現(xiàn)RNN

熱門標(biāo)簽:煙臺(tái)電話外呼營(yíng)銷系統(tǒng) 預(yù)覽式外呼系統(tǒng) 銀川電話機(jī)器人電話 電銷機(jī)器人錄音要學(xué)習(xí)什么 長(zhǎng)春極信防封電銷卡批發(fā) 企業(yè)彩鈴地圖標(biāo)注 外賣地址有什么地圖標(biāo)注 上海正規(guī)的外呼系統(tǒng)最新報(bào)價(jià) 如何地圖標(biāo)注公司

概述

RNN (Recurrent Netural Network) 是用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò). 所謂序列數(shù)據(jù), 即前面的輸入和后面的輸入有一定的聯(lián)系.

權(quán)重共享

傳統(tǒng)神經(jīng)網(wǎng)絡(luò):


RNN:


RNN 的權(quán)重共享和 CNN 的權(quán)重共享類似, 不同時(shí)刻共享一個(gè)權(quán)重, 大大減少了參數(shù)數(shù)量.

計(jì)算過程:


計(jì)算狀態(tài) (State)

計(jì)算輸出:

案例

數(shù)據(jù)集

IBIM 數(shù)據(jù)集包含了來自互聯(lián)網(wǎng)的 50000 條關(guān)于電影的評(píng)論, 分為正面評(píng)價(jià)和負(fù)面評(píng)價(jià).

RNN 層

class RNN(tf.keras.Model):

    def __init__(self, units):
        super(RNN, self).__init__()

        # 初始化 [b, 64] (b 表示 batch_size)
        self.state0 = [tf.zeros([batch_size, units])]
        self.state1 = [tf.zeros([batch_size, units])]

        # [b, 80] => [b, 80, 100]
        self.embedding = tf.keras.layers.Embedding(total_words, embedding_len, input_length=max_review_len)

        self.rnn_cell0 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)
        self.rnn_cell1 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)

        # [b, 80, 100] => [b, 64] => [b, 1]
        self.out_layer = tf.keras.layers.Dense(1)

    def call(self, inputs, training=None):
        """

        :param inputs: [b, 80]
        :param training:
        :return:
        """

        state0 = self.state0
        state1 = self.state1

        x = self.embedding(inputs)

        for word in tf.unstack(x, axis=1):
            out0, state0 = self.rnn_cell0(word, state0, training=training)
            out1, state1 = self.rnn_cell1(out0, state1, training=training)

        # [b, 64] -> [b, 1]
        x = self.out_layer(out1)

        prob = tf.sigmoid(x)

        return prob

獲取數(shù)據(jù)

def get_data():
    # 獲取數(shù)據(jù)
    (X_train, y_train), (X_test, y_test) = tf.keras.datasets.imdb.load_data(num_words=total_words)

    # 更改句子長(zhǎng)度
    X_train = tf.keras.preprocessing.sequence.pad_sequences(X_train, maxlen=max_review_len)
    X_test = tf.keras.preprocessing.sequence.pad_sequences(X_test, maxlen=max_review_len)

    # 調(diào)試輸出
    print(X_train.shape, y_train.shape)  # (25000, 80) (25000,)
    print(X_test.shape, y_test.shape)  # (25000, 80) (25000,)

    # 分割訓(xùn)練集
    train_db = tf.data.Dataset.from_tensor_slices((X_train, y_train))
    train_db = train_db.shuffle(10000).batch(batch_size, drop_remainder=True)

    # 分割測(cè)試集
    test_db = tf.data.Dataset.from_tensor_slices((X_test, y_test))
    test_db = test_db.batch(batch_size, drop_remainder=True)

    return train_db, test_db

完整代碼

import tensorflow as tf


class RNN(tf.keras.Model):

    def __init__(self, units):
        super(RNN, self).__init__()

        # 初始化 [b, 64]
        self.state0 = [tf.zeros([batch_size, units])]
        self.state1 = [tf.zeros([batch_size, units])]

        # [b, 80] => [b, 80, 100]
        self.embedding = tf.keras.layers.Embedding(total_words, embedding_len, input_length=max_review_len)

        self.rnn_cell0 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)
        self.rnn_cell1 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)

        # [b, 80, 100] => [b, 64] => [b, 1]
        self.out_layer = tf.keras.layers.Dense(1)

    def call(self, inputs, training=None):
        """

        :param inputs: [b, 80]
        :param training:
        :return:
        """

        state0 = self.state0
        state1 = self.state1

        x = self.embedding(inputs)

        for word in tf.unstack(x, axis=1):
            out0, state0 = self.rnn_cell0(word, state0, training=training)
            out1, state1 = self.rnn_cell1(out0, state1, training=training)

        # [b, 64] -> [b, 1]
        x = self.out_layer(out1)

        prob = tf.sigmoid(x)

        return prob


# 超參數(shù)
total_words = 10000  # 文字?jǐn)?shù)量
max_review_len = 80  # 句子長(zhǎng)度
embedding_len = 100  # 詞維度
batch_size = 1024  # 一次訓(xùn)練的樣本數(shù)目
learning_rate = 0.0001  # 學(xué)習(xí)率
iteration_num = 20  # 迭代次數(shù)
optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)  # 優(yōu)化器
loss = tf.losses.BinaryCrossentropy(from_logits=True)  # 損失
model = RNN(64)

# 調(diào)試輸出summary
model.build(input_shape=[None, 64])
print(model.summary())

# 組合
model.compile(optimizer=optimizer, loss=loss, metrics=["accuracy"])


def get_data():
    # 獲取數(shù)據(jù)
    (X_train, y_train), (X_test, y_test) = tf.keras.datasets.imdb.load_data(num_words=total_words)

    # 更改句子長(zhǎng)度
    X_train = tf.keras.preprocessing.sequence.pad_sequences(X_train, maxlen=max_review_len)
    X_test = tf.keras.preprocessing.sequence.pad_sequences(X_test, maxlen=max_review_len)

    # 調(diào)試輸出
    print(X_train.shape, y_train.shape)  # (25000, 80) (25000,)
    print(X_test.shape, y_test.shape)  # (25000, 80) (25000,)

    # 分割訓(xùn)練集
    train_db = tf.data.Dataset.from_tensor_slices((X_train, y_train))
    train_db = train_db.shuffle(10000).batch(batch_size, drop_remainder=True)

    # 分割測(cè)試集
    test_db = tf.data.Dataset.from_tensor_slices((X_test, y_test))
    test_db = test_db.batch(batch_size, drop_remainder=True)

    return train_db, test_db


if __name__ == "__main__":
    # 獲取分割的數(shù)據(jù)集
    train_db, test_db = get_data()

    # 擬合
    model.fit(train_db, epochs=iteration_num, validation_data=test_db, validation_freq=1)

輸出結(jié)果:

Model: "rnn"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding (Embedding) multiple 1000000
_________________________________________________________________
simple_rnn_cell (SimpleRNNCe multiple 10560
_________________________________________________________________
simple_rnn_cell_1 (SimpleRNN multiple 8256
_________________________________________________________________
dense (Dense) multiple 65
=================================================================
Total params: 1,018,881
Trainable params: 1,018,881
Non-trainable params: 0
_________________________________________________________________
None

(25000, 80) (25000,)
(25000, 80) (25000,)
Epoch 1/20
2021-07-10 17:59:45.150639: I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:176] None of the MLIR Optimization Passes are enabled (registered 2)
24/24 [==============================] - 12s 294ms/step - loss: 0.7113 - accuracy: 0.5033 - val_loss: 0.6968 - val_accuracy: 0.4994
Epoch 2/20
24/24 [==============================] - 7s 292ms/step - loss: 0.6951 - accuracy: 0.5005 - val_loss: 0.6939 - val_accuracy: 0.4994
Epoch 3/20
24/24 [==============================] - 7s 297ms/step - loss: 0.6937 - accuracy: 0.5000 - val_loss: 0.6935 - val_accuracy: 0.4994
Epoch 4/20
24/24 [==============================] - 8s 316ms/step - loss: 0.6934 - accuracy: 0.5001 - val_loss: 0.6933 - val_accuracy: 0.4994
Epoch 5/20
24/24 [==============================] - 7s 301ms/step - loss: 0.6934 - accuracy: 0.4996 - val_loss: 0.6933 - val_accuracy: 0.4994
Epoch 6/20
24/24 [==============================] - 8s 334ms/step - loss: 0.6932 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.4994
Epoch 7/20
24/24 [==============================] - 10s 398ms/step - loss: 0.6931 - accuracy: 0.5006 - val_loss: 0.6932 - val_accuracy: 0.4994
Epoch 8/20
24/24 [==============================] - 9s 382ms/step - loss: 0.6930 - accuracy: 0.5006 - val_loss: 0.6931 - val_accuracy: 0.4994
Epoch 9/20
24/24 [==============================] - 8s 322ms/step - loss: 0.6924 - accuracy: 0.4995 - val_loss: 0.6913 - val_accuracy: 0.5240
Epoch 10/20
24/24 [==============================] - 8s 321ms/step - loss: 0.6812 - accuracy: 0.5501 - val_loss: 0.6655 - val_accuracy: 0.5767
Epoch 11/20
24/24 [==============================] - 8s 318ms/step - loss: 0.6381 - accuracy: 0.6896 - val_loss: 0.6235 - val_accuracy: 0.7399
Epoch 12/20
24/24 [==============================] - 8s 323ms/step - loss: 0.6088 - accuracy: 0.7655 - val_loss: 0.6110 - val_accuracy: 0.7533
Epoch 13/20
24/24 [==============================] - 8s 321ms/step - loss: 0.5949 - accuracy: 0.7956 - val_loss: 0.6111 - val_accuracy: 0.7878
Epoch 14/20
24/24 [==============================] - 8s 324ms/step - loss: 0.5859 - accuracy: 0.8142 - val_loss: 0.5993 - val_accuracy: 0.7904
Epoch 15/20
24/24 [==============================] - 8s 330ms/step - loss: 0.5791 - accuracy: 0.8318 - val_loss: 0.5961 - val_accuracy: 0.7907
Epoch 16/20
24/24 [==============================] - 8s 340ms/step - loss: 0.5739 - accuracy: 0.8421 - val_loss: 0.5942 - val_accuracy: 0.7961
Epoch 17/20
24/24 [==============================] - 9s 378ms/step - loss: 0.5701 - accuracy: 0.8497 - val_loss: 0.5933 - val_accuracy: 0.8014
Epoch 18/20
24/24 [==============================] - 9s 361ms/step - loss: 0.5665 - accuracy: 0.8589 - val_loss: 0.5958 - val_accuracy: 0.8082
Epoch 19/20
24/24 [==============================] - 8s 353ms/step - loss: 0.5630 - accuracy: 0.8681 - val_loss: 0.5931 - val_accuracy: 0.7966
Epoch 20/20
24/24 [==============================] - 8s 314ms/step - loss: 0.5614 - accuracy: 0.8702 - val_loss: 0.5925 - val_accuracy: 0.7959

Process finished with exit code 0

到此這篇關(guān)于手把手教你使用TensorFlow2實(shí)現(xiàn)RNN的文章就介紹到這了,更多相關(guān)TensorFlow2實(shí)現(xiàn)RNN內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)
  • windows系統(tǒng)Tensorflow2.x簡(jiǎn)單安裝記錄(圖文)
  • TensorFlow2基本操作之合并分割與統(tǒng)計(jì)
  • 詳解TensorFlow2實(shí)現(xiàn)前向傳播
  • Python強(qiáng)化練習(xí)之Tensorflow2 opp算法實(shí)現(xiàn)月球登陸器

標(biāo)簽:西寧 潮州 佳木斯 湖北 宜昌 珠海 上饒 盤錦

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《手把手教你使用TensorFlow2實(shí)現(xiàn)RNN》,本文關(guān)鍵詞  手把手,教你,使用,TensorFlow2,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《手把手教你使用TensorFlow2實(shí)現(xiàn)RNN》相關(guān)的同類信息!
  • 本頁收集關(guān)于手把手教你使用TensorFlow2實(shí)現(xiàn)RNN的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    亚洲综合一区二区三区| 国产拍揄自揄精品视频麻豆| 处破女av一区二区| 久久免费午夜影院| 成人在线综合网| 日韩三级在线免费观看| 狂野欧美性猛交blacked| 欧美一级视频精品观看| 国产一区二区三区| 中文字幕乱码一区二区免费| 国产不卡在线视频| 亚洲男帅同性gay1069| 欧美色图第一页| 蜜臀av国产精品久久久久| 日韩一级免费一区| 国产91丝袜在线播放九色| 亚洲欧美另类久久久精品2019| 欧美三级在线视频| 国产成人免费视| 夜夜精品视频一区二区| 日韩三级高清在线| eeuss鲁一区二区三区| 五月天网站亚洲| 日本一区二区三区四区在线视频| 91免费版在线| 欧美aⅴ一区二区三区视频| 欧美高清在线精品一区| 欧美日韩在线直播| 久久99精品网久久| 亚洲精选在线视频| 久久精品视频免费观看| 欧美唯美清纯偷拍| 成人激情视频网站| 久久aⅴ国产欧美74aaa| 亚洲综合成人在线| 国产精品天天摸av网| 日韩欧美中文字幕一区| 91成人免费网站| 丁香一区二区三区| 美女性感视频久久| 五月天中文字幕一区二区| 日本一区二区三区国色天香 | 91精品国产高清一区二区三区 | 色综合久久66| 激情综合网最新| 亚洲第一成年网| 亚洲人精品一区| 亚洲欧洲av在线| 国产欧美视频一区二区三区| 日韩精品最新网址| 制服丝袜在线91| 欧美精品黑人性xxxx| 色香蕉久久蜜桃| 国产偷国产偷亚洲高清人白洁| 91传媒视频在线播放| av男人天堂一区| 99久精品国产| 91亚洲精品乱码久久久久久蜜桃| 国产成人亚洲综合a∨猫咪| 国产一区二区在线观看免费| 日韩av成人高清| 美女精品自拍一二三四| 蜜桃av噜噜一区| 久久99精品国产麻豆不卡| 麻豆视频一区二区| 国产综合色视频| 国产69精品久久99不卡| 成人免费黄色大片| av动漫一区二区| 91精品办公室少妇高潮对白| 欧美三级视频在线观看 | 欧美性大战久久久久久久蜜臀| 99re热视频精品| 91成人免费网站| 91麻豆精品国产91久久久资源速度| 欧美日韩一区二区三区在线看| 欧美精品一二三| 日韩精品影音先锋| 久久久久久久av麻豆果冻| 国产精品灌醉下药二区| 亚洲高清不卡在线观看| 久久电影国产免费久久电影 | 国产一区二区三区免费看 | 视频一区视频二区在线观看| 免费在线一区观看| 国产成人久久精品77777最新版本| 9i看片成人免费高清| 欧美亚洲综合另类| 精品91自产拍在线观看一区| 中文字幕欧美激情| 水蜜桃久久夜色精品一区的特点| 免费不卡在线观看| 国产精华液一区二区三区| 日本韩国欧美国产| 免费成人av资源网| 处破女av一区二区| 欧美一区二区人人喊爽| 国产免费观看久久| 午夜精品视频一区| av电影在线不卡| 欧美一区二区三区日韩| 国产精品人人做人人爽人人添| 亚洲成av人影院| 99精品视频一区二区| 日韩女同互慰一区二区| 一区二区三区在线视频免费 | 91精品黄色片免费大全| 自拍偷拍亚洲综合| 国产呦精品一区二区三区网站| 在线亚洲高清视频| 久久免费电影网| 午夜电影网亚洲视频| 91麻豆成人久久精品二区三区| 精品三级在线观看| 亚洲妇女屁股眼交7| 成人av网在线| 久久久久久亚洲综合影院红桃| 丝袜亚洲另类欧美| 欧美性猛片xxxx免费看久爱| 国产精品美女视频| 国产在线观看一区二区| 欧美一区二区视频在线观看2020 | 国产精品一区在线| 日韩你懂的电影在线观看| 亚洲国产中文字幕| 91啪亚洲精品| 亚洲日本在线a| 波多野结衣欧美| 国产精品乱人伦| 国产成人免费在线视频| 国产色婷婷亚洲99精品小说| 精品制服美女久久| 日本一区二区视频在线观看| 丰满岳乱妇一区二区三区| 久久综合色之久久综合| 国产盗摄一区二区三区| 久久精品视频一区| 成人黄色在线视频| 亚洲欧洲精品天堂一级| 97久久超碰精品国产| 亚洲蜜臀av乱码久久精品蜜桃| 成人毛片视频在线观看| 中文字幕的久久| 99久久精品免费| 亚洲1区2区3区4区| 精品国产91乱码一区二区三区| 久久国产免费看| 国产精品久线在线观看| 色婷婷综合久久久| 亚洲 欧美综合在线网络| 4hu四虎永久在线影院成人| 奇米影视一区二区三区小说| wwwwxxxxx欧美| 99精品桃花视频在线观看| 亚洲电影你懂得| 精品成人免费观看| 91最新地址在线播放| 日韩黄色在线观看| 久久久久久一级片| 99久久er热在这里只有精品15| 亚洲妇熟xx妇色黄| 久久久精品免费免费| 在线观看日韩国产| 狠狠色丁香久久婷婷综合丁香| 日韩美女精品在线| 制服丝袜亚洲色图| 成人性生交大片免费看在线播放| 亚洲精品一二三四区| 日韩欧美国产wwwww| 91蝌蚪porny| 美脚の诱脚舐め脚责91| 《视频一区视频二区| 欧美一区二区三区啪啪| 成人aa视频在线观看| 青青草精品视频| 亚洲男帅同性gay1069| 久久久久久久精| 91超碰这里只有精品国产| caoporm超碰国产精品| 另类小说色综合网站| 一区二区三区在线观看欧美| 麻豆视频一区二区| 一区二区三区久久久| 国产亚洲一区字幕| 日韩欧美一区二区视频| 在线观看日韩一区| 99麻豆久久久国产精品免费| 奇米精品一区二区三区四区| 亚洲精品中文字幕乱码三区| 久久久噜噜噜久久中文字幕色伊伊 | 中文字幕在线一区| 日韩精品一区国产麻豆| 欧洲视频一区二区| 不卡的电视剧免费网站有什么| 日本成人在线一区| 亚洲成av人片在线观看| 亚洲综合一二区| 亚洲精品成人悠悠色影视| 国产精品高潮呻吟久久| 国产精品精品国产色婷婷|