婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > tensorflow基本操作小白快速構建線性回歸和分類模型

tensorflow基本操作小白快速構建線性回歸和分類模型

熱門標簽:萊蕪電信外呼系統 怎么辦理400客服電話 銀川電話機器人電話 企業微信地圖標注 鶴壁手機自動外呼系統違法嗎 高德地圖標注收入咋樣 B52系統電梯外呼顯示E7 地圖標注多個 沈陽防封電銷電話卡

TF 目前發布2.5 版本,之前閱讀1.X官方文檔,最近查看2.X的文檔。

tensorflow是非常強的工具,生態龐大

tensorflow提供了Keras的分支

這里不再提供Keras相關順序模型教程。

關于環境:ubuntu的 GPU,需要cuda和nvcc

不會安裝:查看

完整的Ubuntu18.04深度學習GPU環境配置,英偉達顯卡驅動安裝、cuda9.0安裝、cudnn的安裝、anaconda安裝

不安裝,直接翻墻用colab

測試GPU

>>> from tensorflow.python.client import device_lib
>>> device_lib.list_local_devices()

這是意思是掛了一個顯卡

具體查看官方文檔:https://www.tensorflow.org/install

服務器跑Jupyter

Define tensor constants.

import tensorflow as tf
# Create a Tensor.
hello = tf.constant("hello world")
hello
# Define tensor constants.
a = tf.constant(1)
b = tf.constant(6)
c = tf.constant(9)
# tensor變量的操作
# (+, *, ...)
add = tf.add(a, b)
sub = tf.subtract(a, b)
mul = tf.multiply(a, b)
div = tf.divide(a, b)
# 通過numpy返回數值  和torch一樣
print("add =", add.numpy())
print("sub =", sub.numpy())
print("mul =", mul.numpy())
print("div =", div.numpy())
add = 7
sub = -5
mul = 6
div = 0.16666666666666666
mean = tf.reduce_mean([a, b, c])
sum_ = tf.reduce_sum([a, b, c])
# Access tensors value.
print("mean =", mean.numpy())
print("sum =", sum_ .numpy())
mean = 5
sum = 16
# Matrix multiplications.
matrix1 = tf.constant([[1., 2.], [3., 4.]])
matrix2 = tf.constant([[5., 6.], [7., 8.]])
product = tf.matmul(matrix1, matrix2)
product
tf.Tensor: shape=(2, 2), dtype=float32, numpy=
array([[19., 22.],
       [43., 50.]], dtype=float32)>
# Tensor to Numpy.
np_product = product.numpy()
print(type(np_product), np_product)
(numpy.ndarray,
 array([[19., 22.],
        [43., 50.]], dtype=float32))

Linear Regression

下面使用tensorflow快速構建線性回歸模型,這里不使用kears的順序模型,而是采用torch的模型定義的寫法。

import numpy as np
import tensorflow as tf
# Parameters:
learning_rate = 0.01
training_steps = 1000
display_step = 50
# Training Data.
X = np.array([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,7.042,10.791,5.313,7.997,5.654,9.27,3.1])
Y = np.array([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,2.827,3.465,1.65,2.904,2.42,2.94,1.3])
random = np.random
# 權重和偏差,隨機初始化。
W = tf.Variable(random.randn(), name="weight")
b = tf.Variable(random.randn(), name="bias")
# Linear regression (Wx + b).
def linear_regression(x):
    return W * x + b
# Mean square error.
def mean_square(y_pred, y_true):
    return tf.reduce_mean(tf.square(y_pred - y_true))
# 隨機梯度下降優化器。
optimizer = tf.optimizers.SGD(learning_rate)
# 優化過程。
def run_optimization():
    # 將計算包在GradientTape中,以便自動區分。
    with tf.GradientTape() as g:
        pred = linear_regression(X)
        loss = mean_square(pred, Y)
    # 計算梯度。
    gradients = g.gradient(loss, [W, b])
        # 按照梯度更新W和b。
    optimizer.apply_gradients(zip(gradients, [W, b]))
#按給定的步數進行訓練。
for step in range(1, training_steps + 1):
    # 運行優化以更新W和b值。
    run_optimization()
        if step % display_step == 0:
        pred = linear_regression(X)
        loss = mean_square(pred, Y)
        print("Step: %i, loss: %f, W: %f, b: %f" % (step, loss, W.numpy(), b.numpy()))


import matplotlib.pyplot as plt
plt.plot(X, Y, 'ro', label='Original data')
plt.plot(X, np.array(W * X + b), label='Fitted line')
plt.legend()
plt.show()

分類模型

本例使用MNIST手寫數字

數據集包含60000個訓練示例和10000個測試示例。

這些數字已經過大小標準化,并在一個固定大小的圖像(28x28像素)中居中,值從0到255。

在本例中,每個圖像將轉換為float32,標準化為[0,1],并展平為784個特征(28×28)的一維數組。

import numpy as np
import tensorflow as tf
#  MNIST data
num_classes = 10      # 0->9 digits
num_features = 784    # 28 * 28
# Parameters 
lr = 0.01
batch_size = 256
display_step = 100
training_steps = 1000
# Prepare MNIST data
from tensorflow.keras.datasets import mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# Convert to Float32
x_train, x_test = np.array(x_train, np.float32), np.array(x_test, np.float32)
# Flatten images into 1-D vector of 784 dimensions (28 * 28)
x_train, x_test = x_train.reshape([-1, num_features]), x_test.reshape([-1, num_features])
# [0, 255] to [0, 1]
x_train, x_test = x_train / 255, x_test / 255
# 打亂順序: tf.data API to shuffle and batch data
train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train))
train_dataset = train_dataset.repeat().shuffle(5000).batch(batch_size=batch_size).prefetch(1)
# Weight of shape [784, 10] ~= [number_features, number_classes]
W = tf.Variable(tf.ones([num_features, num_classes]), name='weight')
# Bias of shape [10] ~= [number_classes]
b = tf.Variable(tf.zeros([num_classes]), name='bias')
# Logistic regression: W*x + b
def logistic_regression(x):
    # 應用softmax函數將logit標準化為概率分布
    out = tf.nn.softmax(tf.matmul(x, W) + b)
       return out
# 交叉熵損失函數
def cross_entropy(y_pred, y_true):
    # 將標簽編碼為一個one_hot向量
    y_true = tf.one_hot(y_true, depth=num_classes)
        # 剪裁預測值避免錯誤
    y_pred = tf.clip_by_value(y_pred, 1e-9, 1)
        # 計算交叉熵
    cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_true * tf.math.log(y_pred), 1))    
    return cross_entropy
# Accuracy
def accuracy(y_pred, y_true):
    correct = tf.equal(tf.argmax(y_pred, 1), tf.cast(y_true, tf.int64))
    return tf.reduce_mean(tf.cast(correct, tf.float32))
# 隨機梯度下降優化器
optimizer = tf.optimizers.SGD(lr)
# Optimization
def run_optimization(x, y):
    with tf.GradientTape() as g:
        pred = logistic_regression(x)
        loss = cross_entropy(y_pred=pred, y_true=y)
    gradients = g.gradient(loss, [W, b])   
    optimizer.apply_gradients(zip(gradients, [W, b]))
# Training
for step, (batch_x, batch_y) in enumerate(train_dataset.take(training_steps), 1):
    # Run the optimization to update W and b
    run_optimization(x=batch_x, y=batch_y)
       if step % display_step == 0:
        pred = logistic_regression(batch_x)
        loss = cross_entropy(y_pred=pred, y_true=batch_y)
        acc = accuracy(y_pred=pred, y_true=batch_y)
        print("Step: %i, loss: %f, accuracy: %f" % (step, loss, acc))

pred = logistic_regression(x_test)
print(f"Test Accuracy: {accuracy(pred, y_test)}")

Test Accuracy: 0.892300009727478

import matplotlib.pyplot as plt
n_images = 5
test_images = x_test[:n_images]
predictions = logistic_regression(test_images)
# 預測前5張
for i in range(n_images):
    plt.imshow(np.reshape(test_images[i], [28, 28]), cmap='gray')
    plt.show()
    print("Model prediction: %i" % np.argmax(predictions.numpy()[i]))

Model prediction: 7

Model prediction: 2

Model prediction: 1

Model prediction: 0

Model prediction: 4

以上就是tensorflow基本操作小白快速構建線性回歸和分類模型的詳細內容,更多關于tensorflow快速構建線性回歸和分類模型的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • tensorflow入門之訓練簡單的神經網絡方法
  • TensorFlow使用Graph的基本操作的實現
  • 詳解tensorflow實現遷移學習實例
  • Python深度學習TensorFlow神經網絡基礎概括

標簽:銀川 三亞 烏魯木齊 呼倫貝爾 葫蘆島 安慶 呼倫貝爾 湘西

巨人網絡通訊聲明:本文標題《tensorflow基本操作小白快速構建線性回歸和分類模型》,本文關鍵詞  tensorflow,基本操作,小白,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《tensorflow基本操作小白快速構建線性回歸和分類模型》相關的同類信息!
  • 本頁收集關于tensorflow基本操作小白快速構建線性回歸和分類模型的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    麻豆91在线播放| 99视频在线精品| 国产在线日韩欧美| 国产亚洲欧美在线| 亚洲大片在线观看| 国产精品久久久久久亚洲毛片| 久久精品国产亚洲5555| 亚洲男同性视频| 日韩欧美成人激情| 日韩欧美精品三级| 色综合天天综合网天天狠天天| 亚洲自拍偷拍欧美| 欧美国产97人人爽人人喊| 美女爽到高潮91| 国产精品自在在线| youjizz国产精品| 国产成人精品三级| 蜜桃一区二区三区在线| 欧美大片在线观看| 日韩av午夜在线观看| 国产精品全国免费观看高清| 日本欧美韩国一区三区| 性感美女久久精品| 99国产精品久久久久久久久久 | 精品成人一区二区三区| 国产精品久久久久久久久免费樱桃 | 欧美午夜影院一区| 国产精品久久久久久久裸模| 精品亚洲欧美一区| 91国产免费看| 亚洲午夜电影在线观看| 蜜臀av性久久久久蜜臀aⅴ流畅| 日韩一区精品字幕| 91在线观看视频| 欧美极品美女视频| 久久狠狠亚洲综合| 顶级嫩模精品视频在线看| 99精品欧美一区二区三区小说| 欧美在线短视频| 久久美女艺术照精彩视频福利播放| 久久久精品国产免费观看同学| 久久国产剧场电影| 国产精品色在线| www.欧美色图| 在线精品视频免费播放| 国产乱码精品一品二品| 色综合久久中文字幕综合网| 亚洲激情中文1区| 亚洲一区在线视频| **网站欧美大片在线观看| 亚洲激情在线播放| 久久av中文字幕片| 91麻豆精品在线观看| 亚洲妇女屁股眼交7| 欧美一卡2卡3卡4卡| 欧美性猛片xxxx免费看久爱| 成人午夜视频在线观看| 亚洲激情网站免费观看| 久久精品人人爽人人爽| 9191国产精品| 亚洲精品国产无套在线观| 亚洲国产成人自拍| 精品国产免费人成在线观看| 国产精品欧美精品| 五月天激情小说综合| 亚洲色图欧美在线| 成人免费一区二区三区在线观看| 欧美国产视频在线| 亚洲激情在线播放| 五月天欧美精品| 一区二区三区免费在线观看| 亚洲电影激情视频网站| 中文一区二区在线观看| 2023国产精品自拍| 欧美精品一区二区久久久| 亚洲人成影院在线观看| 久久精品久久久精品美女| 亚洲图片欧美色图| 亚洲丝袜美腿综合| 不卡av在线免费观看| 欧美精品色综合| 欧美日韩一本到| 精品少妇一区二区三区视频免付费 | 日韩高清不卡在线| 日本伊人色综合网| 五月婷婷综合激情| 成人黄色小视频在线观看| 成人午夜伦理影院| 久久久久久久久久电影| 精品国产凹凸成av人网站| 亚洲一区二区欧美激情| 婷婷激情综合网| 午夜一区二区三区在线观看| 成人99免费视频| 欧洲精品在线观看| 3d动漫精品啪啪| 欧美精品一区视频| 欧美videofree性高清杂交| 中文字幕在线一区二区三区| 久久九九99视频| 国产精品久线在线观看| 精品亚洲国内自在自线福利| 精品一区二区在线免费观看| 精品国产乱码久久久久久图片| 国产精品无码永久免费888| 精品国产一区二区精华| 日韩在线一区二区三区| 成人激情免费网站| 国产三级精品在线| 看电影不卡的网站| 日韩一区二区电影在线| 欧美日韩一区二区三区四区五区| 精品国产一区二区三区av性色 | 4438成人网| 久久久精品日韩欧美| 26uuu精品一区二区| 亚洲一区二区三区四区在线免费观看| 国产精品女人毛片| 成人v精品蜜桃久久一区| 国产午夜精品福利| 91色porny在线视频| 国内精品在线播放| 欧美一级二级三级乱码| 欧美三级一区二区| 三级久久三级久久| 精品国产一区二区精华| 欧美久久婷婷综合色| 高清不卡一区二区在线| 亚洲一二三区视频在线观看| 亚洲一区二区在线免费看| 午夜精品久久久久| 久久免费美女视频| 中文字幕av一区 二区| 免费美女久久99| 国产精品人成在线观看免费| 亚洲国产经典视频| 欧美专区日韩专区| 国产精品电影院| 亚洲第一会所有码转帖| 国产精品色呦呦| 亚洲色欲色欲www| 国产一区欧美一区| 久久久欧美精品sm网站| 国产欧美综合色| 中文字幕一区视频| 国产精品美日韩| 午夜精品视频一区| 99v久久综合狠狠综合久久| 色婷婷狠狠综合| 国产精品欧美精品| 久草中文综合在线| 国产馆精品极品| 欧美国产视频在线| 亚洲欧美韩国综合色| 久久精品日韩一区二区三区| 91黄色免费版| 久久色成人在线| 精品美女被调教视频大全网站| 欧美成人a∨高清免费观看| 蜜臀av性久久久久蜜臀aⅴ四虎| 在线观看一区二区视频| 欧美影视一区二区三区| 91精选在线观看| 717成人午夜免费福利电影| 国产精品伊人色| 久久蜜桃av一区精品变态类天堂| 精品国产乱码久久久久久图片 | 国产在线精品一区二区夜色| 九色综合狠狠综合久久| 国产精品免费久久久久| 国产肉丝袜一区二区| 亚洲色图另类专区| 在线看国产日韩| 中文一区一区三区高中清不卡| 大美女一区二区三区| 中文字幕一区二区三区色视频| 亚洲午夜激情网页| 亚洲欧美日本韩国| 色综合天天性综合| 一区免费观看视频| 欧美精品一区二区在线观看| 国产午夜精品理论片a级大结局| 国产一区二区毛片| 欧美三级资源在线| 麻豆精品一区二区三区| 中文字幕亚洲精品在线观看 | 亚洲午夜久久久久久久久久久| va亚洲va日韩不卡在线观看| 欧美一区二区三区在| 8x福利精品第一导航| 欧美日韩www| 亚洲国产精品久久人人爱| 欧美白人最猛性xxxxx69交| 在线精品观看国产| 91麻豆精品国产自产在线观看一区 | 日韩国产精品91| 欧美日韩第一区日日骚| 日本大胆欧美人术艺术动态| 欧美美女网站色| 久久99精品视频|