婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識(shí)庫 > tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)

tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)

熱門標(biāo)簽:400電話 申請(qǐng) 條件 鄭州智能外呼系統(tǒng)中心 云南地圖標(biāo)注 南京crm外呼系統(tǒng)排名 電銷機(jī)器人 金倫通信 北京外呼電銷機(jī)器人招商 crm電銷機(jī)器人 賓館能在百度地圖標(biāo)注嗎 汕頭電商外呼系統(tǒng)供應(yīng)商

常見的‘融合'操作

復(fù)雜神經(jīng)網(wǎng)絡(luò)模型的實(shí)現(xiàn)離不開"融合"操作。常見融合操作如下:

(1)求和,求差

# 求和
layers.Add(inputs)
# 求差
layers.Subtract(inputs)

inputs: 一個(gè)輸入張量的列表(列表大小至少為 2),列表的shape必須一樣才能進(jìn)行求和(求差)操作。

例子:

input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
added = keras.layers.add([x1, x2])

out = keras.layers.Dense(4)(added)
model = keras.models.Model(inputs=[input1, input2], outputs=out)

(2)乘法

# 輸入張量的逐元素乘積(對(duì)應(yīng)位置元素相乘,輸入維度必須相同)
layers.multiply(inputs)
# 輸入張量樣本之間的點(diǎn)積
layers.dot(inputs, axes, normalize=False) 

dot即矩陣乘法,例子1:

x = np.arange(10).reshape(1, 5, 2)

y = np.arange(10, 20).reshape(1, 2, 5)

# 三維的輸入做dot通常像這樣指定axes,表示矩陣的第一維度和第二維度參與矩陣乘法,第0維度是batchsize
tf.keras.layers.Dot(axes=(1, 2))([x, y])
# 輸出如下:
tf.Tensor: shape=(1, 2, 2), dtype=int64, numpy=
array([[[260, 360],
  [320, 445]]])>

例子2:

x1 = tf.keras.layers.Dense(8)(np.arange(10).reshape(5, 2))
x2 = tf.keras.layers.Dense(8)(np.arange(10, 20).reshape(5, 2))
dotted = tf.keras.layers.Dot(axes=1)([x1, x2])
dotted.shape
TensorShape([5, 1])

(3)聯(lián)合:

# 所有輸入張量通過 axis 軸串聯(lián)起來的輸出張量。
layers.add(inputs,axis=-1)
  • inputs: 一個(gè)列表的輸入張量(列表大小至少為 2)。
  • axis: 串聯(lián)的軸。

例子:

x1 = tf.keras.layers.Dense(8)(np.arange(10).reshape(5, 2))
x2 = tf.keras.layers.Dense(8)(np.arange(10, 20).reshape(5, 2))
concatted = tf.keras.layers.Concatenate()([x1, x2])
concatted.shape
TensorShape([5, 16])

(4)統(tǒng)計(jì)操作

求均值layers.Average()

input1 = tf.keras.layers.Input(shape=(16,))
x1 = tf.keras.layers.Dense(8, activation='relu')(input1)
input2 = tf.keras.layers.Input(shape=(32,))
x2 = tf.keras.layers.Dense(8, activation='relu')(input2)
avg = tf.keras.layers.Average()([x1, x2])
# x_1 x_2 的均值作為輸出
print(avg)
# tf.Tensor 'average/Identity:0' shape=(None, 8) dtype=float32>

out = tf.keras.layers.Dense(4)(avg)
model = tf.keras.models.Model(inputs=[input1, input2], outputs=out)

layers.Maximum()用法相同。

具有多個(gè)輸入和輸出的模型

假設(shè)要構(gòu)造這樣一個(gè)模型:

(1)模型具有以下三個(gè)輸入

工單標(biāo)題(文本輸入),工單的文本正文(文本輸入),以及用戶添加的任何標(biāo)簽(分類輸入)

(2)模型將具有兩個(gè)輸出:

  • 介于 0 和 1 之間的優(yōu)先級(jí)分?jǐn)?shù)(標(biāo)量 Sigmoid 輸出)
  • 應(yīng)該處理工單的部門(部門范圍內(nèi)的 Softmax 輸出)。

模型大概長這樣:

接下來開始創(chuàng)建這個(gè)模型。

(1)模型的輸入

num_tags = 12
num_words = 10000
num_departments = 4

title_input = keras.Input(shape=(None,), name="title") # Variable-length sequence of ints
body_input = keras.Input(shape=(None,), name="body") # Variable-length sequence of ints
tags_input = keras.Input(shape=(num_tags,), name="tags") # Binary vectors of size `num_tags`

(2)將輸入的每一個(gè)詞進(jìn)行嵌入成64-dimensional vector

title_features = layers.Embedding(num_words,64)(title_input)
body_features = layers.Embedding(num_words,64)(body_input)

(3)處理結(jié)果輸入LSTM模型,得到 128-dimensional vector

title_features = layers.LSTM(128)(title_features)
body_features = layers.LSTM(32)(body_features)

(4)concatenate融合所有的特征

x = layers.concatenate([title_features, body_features, tags_input])

(5)模型的輸出

# 輸出1,回歸問題
priority_pred = layers.Dense(1,name="priority")(x)

# 輸出2,分類問題
department_pred = layers.Dense(num_departments,name="department")(x)

(6)定義模型

model = keras.Model(
 inputs=[title_input, body_input, tags_input],
 outputs=[priority_pred, department_pred],
)

(7)模型編譯

編譯此模型時(shí),可以為每個(gè)輸出分配不同的損失。甚至可以為每個(gè)損失分配不同的權(quán)重,以調(diào)整其對(duì)總訓(xùn)練損失的貢獻(xiàn)。

model.compile(
 optimizer=keras.optimizers.RMSprop(1e-3),
 loss={
  "priority": keras.losses.BinaryCrossentropy(from_logits=True),
  "department": keras.losses.CategoricalCrossentropy(from_logits=True),
 },
 loss_weights=[1.0, 0.2],
)

(8)模型的訓(xùn)練

# Dummy input data
title_data = np.random.randint(num_words, size=(1280, 10))
body_data = np.random.randint(num_words, size=(1280, 100))
tags_data = np.random.randint(2, size=(1280, num_tags)).astype("float32")

# Dummy target data
priority_targets = np.random.random(size=(1280, 1))
dept_targets = np.random.randint(2, size=(1280, num_departments))

# 通過字典的形式將數(shù)據(jù)fit到模型
model.fit(
 {"title": title_data, "body": body_data, "tags": tags_data},
 {"priority": priority_targets, "department": dept_targets},
 epochs=2,
 batch_size=32,
)

ResNet 模型

通過add來實(shí)現(xiàn)融合操作,模型的基本結(jié)構(gòu)如下:

# 實(shí)現(xiàn)第一個(gè)塊
_input = keras.Input(shape=(32,32,3))
x = layers.Conv2D(32,3,activation='relu')(_input)
x = layers.Conv2D(64,3,activation='relu')(x)
block1_output = layers.MaxPooling2D(3)(x)

# 實(shí)現(xiàn)第二個(gè)塊
x = layers.Conv2D(64,3,padding='same',activation='relu')(block1_output)
x = layers.Conv2D(64,3,padding='same',activation='relu')(x)
block2_output = layers.add([x,block1_output])


# 實(shí)現(xiàn)第三個(gè)塊
x = layers.Conv2D(64, 3, activation="relu", padding="same")(block2_output)
x = layers.Conv2D(64, 3, activation="relu", padding="same")(x)
block_3_output = layers.add([x, block2_output])

# 進(jìn)入全連接層
x = layers.Conv2D(64,3,activation='relu')(block_3_output)
x = layers.GlobalAveragePooling2D()(x)
x = layers.Dense(256, activation="relu")(x)
x = layers.Dropout(0.5)(x)
outputs = layers.Dense(10)(x)

模型的定義與編譯:

model = keras.Model(_input,outputs,name='resnet')

model.compile(
 optimizer=keras.optimizers.RMSprop(1e-3),
 loss='sparse_categorical_crossentropy',
 metrics=["acc"],
)

模型的訓(xùn)練

(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()
# 歸一化
x_train = x_train.astype("float32") / 255
x_test = x_test.astype("float32") / 255
model.fit(tf.expand_dims(x_train,-1), y_train, batch_size=64, epochs=1, validation_split=0.2)

注:當(dāng)loss = =keras.losses.CategoricalCrossentropy(from_logits=True)時(shí),需對(duì)標(biāo)簽進(jìn)行one-hot:

y_train = keras.utils.to_categorical(y_train, 10)

到此這篇關(guān)于tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)的文章就介紹到這了,更多相關(guān)tensorflow2.0復(fù)雜神經(jīng)網(wǎng)絡(luò)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 手把手教你使用TensorFlow2實(shí)現(xiàn)RNN
  • windows系統(tǒng)Tensorflow2.x簡單安裝記錄(圖文)
  • TensorFlow2基本操作之合并分割與統(tǒng)計(jì)
  • 詳解TensorFlow2實(shí)現(xiàn)前向傳播
  • Python強(qiáng)化練習(xí)之Tensorflow2 opp算法實(shí)現(xiàn)月球登陸器

標(biāo)簽:石家莊 梅州 文山 懷化 西寧 昆明 錫林郭勒盟 浙江

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)》,本文關(guān)鍵詞  tensorflow2.0,實(shí)現(xiàn),復(fù)雜,神經(jīng)網(wǎng)絡(luò),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)》相關(guān)的同類信息!
  • 本頁收集關(guān)于tensorflow2.0實(shí)現(xiàn)復(fù)雜神經(jīng)網(wǎng)絡(luò)(多輸入多輸出nn,Resnet)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    www国产精品av| 久久99国产精品免费| 91蜜桃网址入口| 午夜视频一区在线观看| 欧美激情一区二区在线| 欧美丰满一区二区免费视频| 成人免费毛片嘿嘿连载视频| 视频一区免费在线观看| 久久精品欧美一区二区三区麻豆| 欧美日韩一区二区三区四区| 在线看国产一区| 91色综合久久久久婷婷| 国产一区二区三区| 精品一区二区三区在线播放视频| 亚洲成人自拍偷拍| 亚洲免费观看在线观看| 自拍视频在线观看一区二区| 国产欧美一区二区精品仙草咪| 欧美一级在线视频| 欧美精品1区2区3区| 欧美视频在线一区二区三区| 一本到一区二区三区| 成人黄色电影在线| 成人午夜激情视频| 国产很黄免费观看久久| 国产v综合v亚洲欧| 成人av在线影院| 91在线观看美女| 国产精品影视在线观看| 国产精品一卡二卡在线观看| 国产福利91精品一区| 国产精品亚洲视频| 国产精品中文字幕欧美| 暴力调教一区二区三区| 91美女片黄在线| 欧美日韩高清一区二区不卡| 7777精品久久久大香线蕉| 制服丝袜国产精品| 精品国内二区三区| 国产欧美一区视频| 国产精品免费久久| 亚洲乱码中文字幕综合| 一区二区三区久久久| 亚洲成人一区在线| 久久成人综合网| 成人在线视频首页| 91九色最新地址| 欧美亚洲综合色| 欧美一级日韩不卡播放免费| 久久久不卡网国产精品一区| 国产精品青草综合久久久久99| 亚洲情趣在线观看| 老司机免费视频一区二区| kk眼镜猥琐国模调教系列一区二区| 欧美主播一区二区三区| 精品久久久久久久人人人人传媒| 日韩一区中文字幕| 免费观看一级欧美片| 91在线国产福利| 精品国产髙清在线看国产毛片| 国产精品传媒入口麻豆| 青青草国产精品97视觉盛宴| 99久久精品国产精品久久| 欧美精品色综合| 中文字幕av在线一区二区三区| 日韩一区精品字幕| 色94色欧美sute亚洲13| 久久久www成人免费毛片麻豆| 夜夜操天天操亚洲| 国产一区二区不卡在线| 欧美在线观看视频一区二区 | 樱花草国产18久久久久| 日韩精品1区2区3区| 国产福利一区二区三区视频| 欧美日韩一级二级| 亚洲视频中文字幕| 国产乱码精品一区二区三区av| 一本大道综合伊人精品热热| 亚洲精品在线观看网站| 亚洲va国产va欧美va观看| av电影在线观看完整版一区二区| 成人午夜私人影院| 精品国偷自产国产一区| 无吗不卡中文字幕| 岛国一区二区在线观看| 久久婷婷色综合| 老司机精品视频线观看86| 欧美福利电影网| 丝袜脚交一区二区| 欧美日韩aaa| 亚洲一区二区三区中文字幕在线| 国产成人h网站| 久久久久九九视频| 国产在线精品一区二区不卡了 | 亚洲素人一区二区| 成人黄色av电影| 久久久久久久网| 精品一区二区av| 精品少妇一区二区三区| 美女看a上一区| 欧美精品18+| 免费视频一区二区| 欧美一区二区成人6969| 日本不卡一区二区| 欧美大度的电影原声| 国内精品在线播放| 日本一区二区三区dvd视频在线| 国产精品一区二区不卡| 亚洲国产精品激情在线观看| 99re视频精品| 香蕉久久一区二区不卡无毒影院| 欧美日韩成人在线一区| 五月婷婷另类国产| 日韩免费高清电影| 国产一区欧美日韩| 国产精品久久久久毛片软件| 成人免费毛片嘿嘿连载视频| 中文字幕一区二区在线观看| 91在线国内视频| 亚洲大片在线观看| 欧美丰满一区二区免费视频| 麻豆久久久久久| 亚洲国产精品精华液2区45| 色偷偷88欧美精品久久久| 一区二区高清在线| 日韩欧美亚洲另类制服综合在线 | 99久久精品情趣| 一区二区在线看| 日韩手机在线导航| 成人高清免费观看| 午夜精品福利一区二区三区av| 精品久久人人做人人爱| 91色乱码一区二区三区| 奇米在线7777在线精品| 国产精品久久久久久亚洲伦| 欧美日韩中字一区| 国产精品99久| 亚洲国产色一区| 久久久久久久久蜜桃| 91蜜桃传媒精品久久久一区二区 | 成人三级伦理片| 日韩电影在线一区二区三区| 国产女主播一区| 91精品国产乱码久久蜜臀| 北条麻妃国产九九精品视频| 蜜臀精品一区二区三区在线观看| 一区二区中文字幕在线| 精品久久国产字幕高潮| 国产人伦精品一区二区| 色av一区二区| 成人美女视频在线看| 蜜臀久久99精品久久久画质超高清| 亚洲欧洲综合另类在线| 欧美精品一区二区三区久久久| 在线精品视频一区二区| 福利一区二区在线| 日本成人在线不卡视频| 亚洲制服丝袜av| 亚洲欧美综合网| 26uuu精品一区二区 | 国产精品不卡视频| 久久影音资源网| 精品乱码亚洲一区二区不卡| 在线亚洲高清视频| 成人久久18免费网站麻豆 | 国产丶欧美丶日本不卡视频| 亚洲免费大片在线观看| 国产欧美精品国产国产专区| 日韩欧美一区中文| 91精品国产综合久久久蜜臀粉嫩 | 亚洲乱码国产乱码精品精98午夜| 国产精品婷婷午夜在线观看| 26uuu国产电影一区二区| 日韩欧美中文一区| 欧美一区二区三区视频| 欧美性生活大片视频| 成人不卡免费av| 亚洲特级片在线| 欧美精品一区二区蜜臀亚洲| 99久久精品免费看| 久久福利视频一区二区| 成人av免费观看| 成人动漫视频在线| 中文字幕一区二区日韩精品绯色| 精品国产三级电影在线观看| 欧美一区二区日韩| 丁香婷婷综合网| 国产成人精品亚洲午夜麻豆| 高清成人免费视频| 日韩一卡二卡三卡四卡| 91麻豆精品久久久久蜜臀| 在线精品亚洲一区二区不卡| 国产精品一区二区91| 亚洲风情在线资源站| 国产精品入口麻豆原神| 一区二区三区在线不卡| 91精品国产综合久久香蕉的特点 | 久久国产精品99久久久久久老狼| 久久亚洲二区三区| 欧美系列一区二区|