婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > Python機(jī)器學(xué)習(xí)入門(五)之Python算法審查

Python機(jī)器學(xué)習(xí)入門(五)之Python算法審查

熱門標(biāo)簽:西藏房產(chǎn)智能外呼系統(tǒng)要多少錢 ai電話機(jī)器人哪里好 外呼并發(fā)線路 宿遷星美防封電銷卡 長(zhǎng)沙高頻外呼系統(tǒng)原理是什么 ai電銷機(jī)器人源碼 地圖標(biāo)注審核表 百度地圖標(biāo)注沒(méi)有了 湛江智能外呼系統(tǒng)廠家

程序測(cè)試是展現(xiàn)BUG存在的有效方式,但令人絕望的是它不足以展現(xiàn)其缺位。

——艾茲格·迪杰斯特拉(Edsger W. Dijkstra)

算法審查時(shí)選擇合適的機(jī)器學(xué)習(xí)算法主要方式之一。審查算法前并不知道哪個(gè)算法對(duì)問(wèn)題最有效,必須設(shè)計(jì)一定的實(shí)驗(yàn)進(jìn)行驗(yàn)證,以找到對(duì)問(wèn)題最有效的算法。

審查算法前沒(méi)有辦法判斷那個(gè)算法對(duì)數(shù)據(jù)集最有效、能夠生成最優(yōu)模型,必須通過(guò)一些列的實(shí)驗(yàn)進(jìn)行驗(yàn)證才能夠得出結(jié)論,從而選擇最優(yōu)的算法。這個(gè)過(guò)程被稱為審查算法。

審查算法時(shí),要嘗試多種代表性算法、機(jī)器學(xué)習(xí)算法以及多種模型,通過(guò)大量實(shí)驗(yàn)才能找到最有效的算法

1.審查分類算法

1.1線性算法審查

1.1.1邏輯回歸

邏輯回歸其實(shí)是一個(gè)分類算法而不是回歸算法,通常是利用已知的自變量來(lái)預(yù)測(cè)一個(gè)離散型因變量的值(如二進(jìn)制0/1、真/假)。簡(jiǎn)單來(lái)說(shuō),它就是通過(guò)擬合一個(gè)邏輯回歸函數(shù)(Logistic Function)來(lái)預(yù)測(cè)事件發(fā)生的概率。所以它預(yù)測(cè)的是一個(gè)概率值,它的輸出值應(yīng)該為0~1,因此非常適合二分類問(wèn)題。

from pandas import read_csv
from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression#邏輯回歸
 
filename = 'pima_data.csv'
names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
data = read_csv(filename, names=names)
array = data.values
X = array[:, 0:8]
Y = array[:, 8]
 
#邏輯回歸
num_folds = 10
seed = 7
kfold = KFold(n_splits=num_folds, random_state=seed, shuffle=True)
model = LogisticRegression(max_iter=3000)
result = cross_val_score(model, X, Y, cv=kfold)
print(result.mean())

執(zhí)行結(jié)果如下:0.7721633629528366

1.1.2線性判別分析

線性判別分析(Linear DIscriminant Analysis,LDA),也叫做Fisher線性判別(Fisher Linear Discriminant Analysis,F(xiàn)LD)。它的思想是將高維的模式樣本投影到最佳鑒別矢量空間,以達(dá)到抽取分類信息和壓縮特征空間維數(shù)的效果,投影后保證模式樣本在新的子空間有最大類間距離和最小類內(nèi)距離。因此,他是一種有效的特征抽取方法。(完全不懂它是什么東西。。。)

from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
 
#相同代碼不再贅述
 
#線性判別分析
model = LinearDiscriminantAnalysis()
result = cross_val_score(model, X, Y, cv=kfold)
print(result.mean())

執(zhí)行結(jié)果如下:

0.7669685577580315

1.2非線性算法審查

1.2.1K近鄰算法

K近鄰算法的基本思路是:如果一個(gè)樣本在特征空間中的k個(gè)最相似的樣本中大多數(shù)屬于某一個(gè)類別則該樣本也屬于這個(gè)了類別。在scikit-learn中通過(guò)KNeighborsClassifier實(shí)現(xiàn)。

from sklearn.neighbors import KNeighborsClassifier
 
#相同代碼不再贅述
 
#K近鄰
model = KNeighborsClassifier()
result = cross_val_score(model, X, Y,cv=kfold)
print(result.mean())

0.7109876965140123

1.2.2貝葉斯分類器

貝葉斯分類器的分類原理是通過(guò)某對(duì)象的先驗(yàn)概率,利用貝葉斯公式計(jì)算出其在所有類別上的后驗(yàn)概率,即該對(duì)象屬于某一類的來(lái)率,選擇具有最大后驗(yàn)概率的類作為該對(duì)象所屬的類。

from sklearn.naive_bayes import GaussianNB
 
#貝葉斯分類器
model = GaussianNB()
result = cross_val_score(model, X, Y,cv=kfold)
print(result.mean())

0.7591421736158578

1.2.3分類與回歸樹

分類與回歸樹(CART).CART算法由以下兩布組成:

  1. 樹的生成:基于訓(xùn)練集生成決策樹,生成的決策樹要盡量大。
  2. 樹的剪枝:用驗(yàn)證集對(duì)已生成的樹進(jìn)行剪枝,并選擇最優(yōu)子樹,這時(shí)以損失函數(shù)最小作為剪枝標(biāo)準(zhǔn)。
from sklearn.tree import DecisionTreeClassifier
 
#分類與回歸樹
model = DecisionTreeClassifier()
result = cross_val_score(model, X, Y,cv=kfold)
print(result.mean())

0.688961038961039

1.2.4支持向量機(jī)

from sklearn.svm import SVC
 
#支持向量機(jī)
model = SVC()
result = cross_val_score(model, X, Y,cv=kfold)
print(result.mean())

0.760457963089542

2.審查回歸算法

本部分使用波士頓房?jī)r(jià)的數(shù)據(jù)集來(lái)審查回歸算法,采用10折交叉驗(yàn)證來(lái)分離數(shù)據(jù),并應(yīng)用到所有的算法上。

2.1線性算法審查

2.1.1線性回歸算法

線性回歸算法時(shí)利用數(shù)理統(tǒng)計(jì)中的回歸分析,來(lái)確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法。在回歸分析中,若只包含一個(gè)自變量和一個(gè)因變量,且二者的關(guān)系可用一條直線近似表示,這種回歸分析成為一元線性回歸分析。如果回歸分析中包含兩個(gè)或兩個(gè)以上的自變量,且因變量和自變量之間是線性關(guān)系,則稱為多元線性回歸分析。

from pandas import read_csv
from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LinearRegression
 
filename = 'housing.csv'
names = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE','DIS','RAD','TAX','PRTATIO','B','LSTAT','MEDV']
data = read_csv(filename,names=names,delim_whitespace=True)
array = data.values
X = array[:,0:13]
Y = array[:,13]
n_splits = 10
seed = 7
kfold = KFold(n_splits=n_splits,random_state=seed,shuffle=True)
 
#線性回歸算法
model = LinearRegression()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("線性回歸算法:%.3f" % result.mean())

線性回歸算法:-23.747

2.1.2嶺回歸算法

嶺回歸算法是一種專門用于共線性數(shù)據(jù)分析的有偏估計(jì)回歸方法,實(shí)際上是一種改良的最小二乘估計(jì)法,通過(guò)放棄最小二乘法的無(wú)偏性,以損失部分信息、降低精度為代價(jià),獲得回歸系數(shù)更符合實(shí)際、更可靠的回歸方法,對(duì)病態(tài)數(shù)據(jù)的擬合要強(qiáng)于最小二乘法

from sklearn.linear_model import Ridge
 
#嶺回歸算法
model = Ridge()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("嶺回歸算法:%.3f" % result.mean())

嶺回歸算法:-23.890

2.1.3套索回歸算法

套索回歸算法與嶺回歸算法類似,套索回歸算法也會(huì)懲罰回歸系數(shù),在套索回歸中會(huì)懲罰回歸系數(shù)的絕對(duì)值大小。此外,它能夠減少變化程度并提高線性回歸模型的精度

from sklearn.linear_model import Lasso
 
#套索回歸算法
model = Lasso()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("套索回歸算法:%.3f" % result.mean())

套索回歸算法:-28.746

2.1.4彈性網(wǎng)絡(luò)回歸算法

彈性網(wǎng)絡(luò)回歸算法是套索回歸算法和嶺回歸算法的混合體,在模型訓(xùn)練時(shí)彈性網(wǎng)絡(luò)回歸算法綜合使用L1和L2兩種正則化方法。當(dāng)有多個(gè)相關(guān)的特征時(shí),彈性網(wǎng)絡(luò)回歸算法是很有用的,套索回歸算法會(huì)隨機(jī)挑選一個(gè),而彈性網(wǎng)絡(luò)回歸算法則會(huì)選擇兩個(gè)。它的優(yōu)點(diǎn)是允許彈性網(wǎng)絡(luò)回歸繼承循環(huán)狀態(tài)下嶺回歸的一些穩(wěn)定性。

from sklearn.linear_model import ElasticNet
 
#彈性網(wǎng)絡(luò)回歸算法
model = ElasticNet()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("彈性網(wǎng)絡(luò)回歸算法:%.3f" % result.mean())

彈性網(wǎng)絡(luò)回歸算法:-27.908

2.2非線性算法審查

2.2.1K近鄰算法

在scikit-learn中對(duì)回歸算法的K近鄰算法的實(shí)現(xiàn)類是KNeighborsRegressor。默認(rèn)距離參數(shù)為閔氏距離。

from sklearn.neighbors import KNeighborsRegressor
 
#K近鄰算法
model = KNeighborsRegressor()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("K近鄰算法:%.3f" % result.mean())

K近鄰算法:-38.852

2.2.2分類與回歸樹

在scikit-learn中分類與回歸樹的實(shí)現(xiàn)類是DecisionTreeRegressor

from sklearn.tree import DecisionTreeRegressor
 
#分類與回歸樹算法
model = DecisionTreeRegressor()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("分類與回歸樹算法:%.3f" % result.mean())

K近鄰算法:-38.852
分類與回歸樹算法:-21.527

2.2.3支持向量機(jī)

from sklearn.svm import SVR
 
#支持向量機(jī)
model = SVR()
scoring = 'neg_mean_squared_error'
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
print("支持向量機(jī):%.3f" % result.mean())

支持向量機(jī):-67.641

3.算法比較

比較不同算法的準(zhǔn)確度,選擇合適的算法,在處理機(jī)器學(xué)習(xí)的問(wèn)題時(shí)是分廠重要的。接下來(lái)將介紹一種模式,在scikit-learn中可以利用它比較不同的算法,并選擇合適的算法。

當(dāng)?shù)玫揭粋€(gè)新的數(shù)據(jù)集時(shí),應(yīng)該通過(guò)不同的維度來(lái)審查數(shù)據(jù),以便找到數(shù)據(jù)的特征。一種比較好的方法是通過(guò)可視化的方式來(lái)展示平均準(zhǔn)確度、方差等屬性,以便于更方便地選擇算法。

最合適的算法比較方法是:使用相同數(shù)據(jù)、相同方法來(lái)評(píng)估不同算法,以便得到一個(gè)準(zhǔn)確的結(jié)果

使用Pima Indias數(shù)據(jù)集來(lái)介紹如何比較算法。采用10折交叉驗(yàn)證來(lái)分離數(shù)據(jù),并采用相同的隨機(jī)數(shù)分配方式來(lái)確保所有算法都使用相同的數(shù)據(jù)。為了便于理解,為每個(gè)算法設(shè)定一個(gè)短名字。

from pandas import read_csv
from sklearn.model_selection import KFold
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import cross_val_score
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.neighbors import KNeighborsRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.svm import SVC
from sklearn.naive_bayes import GaussianNB
from matplotlib import pyplot
 
 
filename = 'pima_data.csv'
names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']
data = read_csv(filename,names=names)
array = data.values
X = array[:,0:8]
Y = array[:,8]
num_folds = 10
seed = 7
kfold = KFold(n_splits=num_folds,random_state=seed,shuffle=True)
models={}
models['LR'] = LogisticRegression(max_iter=3000)
models['LDA'] = LinearDiscriminantAnalysis()
models['KNN'] = KNeighborsRegressor()
models['CART'] = DecisionTreeRegressor()
models['SVM'] = SVC()
models['NB'] = GaussianNB()
results = []
for name in models:
    result = cross_val_score(models[name], X, Y, cv=kfold)
    results.append(result)
    msg = '%s: %.3f (%.3f)' % (name, result.mean(), result.std())
    print(msg)
 
#圖表顯示
fig = pyplot.figure()
fig.suptitle('Algorithm Comparison')
ax = fig.add_subplot(111)
pyplot.boxplot(results)
ax.set_xticklabels(models.keys())
pyplot.show()

執(zhí)行結(jié)果如下:

LR: 0.772 (0.050)
LDA: 0.767 (0.048)
KNN: 0.081 (0.159)
CART: -0.478 (0.257)
SVM: 0.760 (0.035)
NB: 0.759 (0.039)

總結(jié)

本文主要介紹了算法審查以及如何選擇最合適的算法,在第三部分中提供了代碼實(shí)例,可以直接將其作為模板使用到項(xiàng)目中以選擇最優(yōu)算法。

到此這篇關(guān)于Python機(jī)器學(xué)習(xí)入門(五)算法審查的文章就介紹到這了,更多相關(guān)Python機(jī)器學(xué)習(xí)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python機(jī)器學(xué)習(xí)入門(一)序章
  • Python機(jī)器學(xué)習(xí)入門(二)之Python數(shù)據(jù)理解
  • Python機(jī)器學(xué)習(xí)入門(三)之Python數(shù)據(jù)準(zhǔn)備
  • Python機(jī)器學(xué)習(xí)入門(四)之Python選擇模型
  • Python機(jī)器學(xué)習(xí)入門(六)之Python優(yōu)化模型
  • python機(jī)器學(xué)習(xí)高數(shù)篇之函數(shù)極限與導(dǎo)數(shù)

標(biāo)簽:盤錦 大同 漯河 普洱 海南 林芝 南平 寧夏

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python機(jī)器學(xué)習(xí)入門(五)之Python算法審查》,本文關(guān)鍵詞  Python,機(jī)器,學(xué)習(xí),入門,五,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python機(jī)器學(xué)習(xí)入門(五)之Python算法審查》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于Python機(jī)器學(xué)習(xí)入門(五)之Python算法審查的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    成人av电影在线| 日韩视频免费直播| 免费观看久久久4p| 日本成人中文字幕在线视频| 人禽交欧美网站| 日本伊人色综合网| 久久 天天综合| 国产成人自拍在线| 成人激情免费网站| 精品视频999| 欧美大片国产精品| 国产精品免费视频网站| 亚洲一区二区高清| 国产一区福利在线| 欧美色视频一区| 国产欧美va欧美不卡在线| 亚洲欧美韩国综合色| 久草热8精品视频在线观看| 色综合久久六月婷婷中文字幕| 91精品国产乱码久久蜜臀| 国产精品国产自产拍在线| 日韩一区精品视频| 91亚洲精品久久久蜜桃网站 | 欧美日韩精品福利| 久久精品欧美一区二区三区不卡 | 一本一本大道香蕉久在线精品| 欧美电视剧在线观看完整版| 亚洲一区二区高清| 成人av电影在线| 久久久亚洲精华液精华液精华液| 亚洲高清免费在线| 91麻豆swag| 中文av一区特黄| 国产精品456| 日韩精品在线一区| 日本不卡在线视频| 欧美精品在线一区二区| 一区二区在线电影| 一本大道av一区二区在线播放| 久久精品视频一区| 狠狠色丁香久久婷婷综| 欧美一区二区美女| 亚洲超丰满肉感bbw| 在线看一区二区| 一区二区在线观看av| 91小视频免费观看| 亚洲激情在线播放| 色伊人久久综合中文字幕| 中文字幕亚洲电影| 色综合久久中文综合久久牛| 亚洲三级免费观看| 97精品久久久午夜一区二区三区 | 综合在线观看色| av电影天堂一区二区在线| 欧美国产视频在线| 成人一区二区三区视频在线观看| 国产亚洲精品精华液| 国产麻豆日韩欧美久久| 国产欧美日韩亚州综合| 高清shemale亚洲人妖| 国产精品看片你懂得| 99精品欧美一区二区三区综合在线| 中文av一区二区| 一本一道综合狠狠老| 亚洲一二三四区| 欧美午夜电影一区| 日韩激情在线观看| 久久久久久久网| 成人免费视频播放| 一区2区3区在线看| 91精品国产黑色紧身裤美女| 国内成人精品2018免费看| 中文字幕av一区二区三区| 99久久夜色精品国产网站| 夜夜精品浪潮av一区二区三区| 欧美精品在线观看播放| 久久精品国产一区二区| 欧美激情一区二区在线| 日本久久精品电影| 久久99久久精品欧美| 国产精品短视频| 欧美三区在线视频| 国内精品久久久久影院色| 国产精品毛片大码女人| 欧美日本一区二区| 风间由美一区二区三区在线观看| 亚洲欧美二区三区| 日韩视频一区在线观看| 91一区二区三区在线观看| 蜜桃精品视频在线观看| 欧美国产一区在线| 69堂成人精品免费视频| 国产suv精品一区二区883| 一区二区三区在线播放| 久久一二三国产| 欧美色综合天天久久综合精品| 国产精品自拍三区| 亚洲成av人综合在线观看| wwww国产精品欧美| 欧美性猛片aaaaaaa做受| 国产成人亚洲综合a∨婷婷 | 精品1区2区3区| 成人一区二区三区视频在线观看| 日韩高清在线一区| 最新日韩在线视频| 精品国产一区二区三区av性色| 99国产精品久久久久久久久久 | 久久久久久影视| 欧美精品在线观看一区二区| 91丝袜呻吟高潮美腿白嫩在线观看| 精品一区二区三区久久| 亚洲一区二区三区四区中文字幕 | 国产成人精品在线看| 婷婷国产在线综合| 亚洲欧美一区二区三区久本道91 | 国产精品自在在线| 免费看黄色91| 亚洲成在人线免费| 亚洲欧美色一区| 国产精品午夜在线观看| 欧美不卡123| 6080日韩午夜伦伦午夜伦| 欧美亚洲国产一卡| 91免费国产视频网站| 国产99精品国产| 国产一区久久久| 韩国av一区二区三区四区| 蜜桃精品视频在线观看| 日本不卡视频在线| 奇米色777欧美一区二区| 婷婷综合在线观看| 天天综合网天天综合色| 亚洲综合一区二区| 亚洲最大成人网4388xx| 亚洲老妇xxxxxx| 亚洲免费观看在线视频| 最新国产精品久久精品| 中文字幕在线不卡视频| 中文成人综合网| 17c精品麻豆一区二区免费| 国产精品剧情在线亚洲| 日韩美女视频一区二区| 玉足女爽爽91| 亚洲123区在线观看| 奇米一区二区三区| 久久综合九色综合97_久久久| 丝袜美腿亚洲一区| 中文字幕一区二区三区在线播放 | 日韩精品午夜视频| 亚洲综合丁香婷婷六月香| 亚洲高清不卡在线观看| 亚洲国产毛片aaaaa无费看 | 五月婷婷欧美视频| 午夜视频在线观看一区二区 | 美女mm1313爽爽久久久蜜臀| 久久成人免费网| 久久99国产精品尤物| 精品一二三四区| 国产高清在线精品| 色视频成人在线观看免| 欧美视频在线观看一区二区| 欧美性一区二区| 91精品国产综合久久精品图片| 美女视频一区二区| 欧美xxxxxxxx| 精品乱码亚洲一区二区不卡| 亚洲精品一区二区三区在线观看 | 日韩精品电影一区亚洲| 日本欧美一区二区三区乱码| 老司机午夜精品| 成人深夜在线观看| 欧美精三区欧美精三区| 久久久久久久国产精品影院| 国产精品久久久久久久久快鸭| 亚洲影院在线观看| 久久99国内精品| 99久久99久久精品免费观看 | 亚洲女人的天堂| 日本成人在线一区| 成人影视亚洲图片在线| 欧美色综合影院| 久久精品欧美一区二区三区不卡| 一区二区三区在线免费| 国产精品国产自产拍在线| 麻豆91在线观看| 国产·精品毛片| 免费黄网站欧美| 丁香桃色午夜亚洲一区二区三区| 91国内精品野花午夜精品| 欧美精品一区二区三区视频| 亚洲一区二区欧美激情| 国产不卡免费视频| 欧美一二三区在线| 亚洲人成网站在线| 国产精品自拍毛片| 欧美综合久久久| 久久免费国产精品| 麻豆久久久久久久| 欧美午夜片在线观看| 中文字幕成人网|