婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python機器學(xué)習(xí)之AdaBoost算法

Python機器學(xué)習(xí)之AdaBoost算法

熱門標(biāo)簽:沈陽防封電銷卡品牌 沈陽外呼系統(tǒng)呼叫系統(tǒng) 外呼系統(tǒng)哪些好辦 池州外呼調(diào)研線路 江西省地圖標(biāo)注 沈陽人工外呼系統(tǒng)價格 武漢外呼系統(tǒng)平臺 如何申請400電話費用 富錦商家地圖標(biāo)注

一、算法概述

  • AdaBoost 是英文 Adaptive Boosting(自適應(yīng)增強)的縮寫,由 Yoav Freund 和Robert Schapire 在1995年提出。
  • AdaBoost 的自適應(yīng)在于前一個基本分類器分類錯誤的樣本的權(quán)重會得到加強,加強后的全體樣本再次被用來訓(xùn)練下一個基本分類器。同時,在每一輪訓(xùn)練中加入一個新的弱分類器,直到達(dá)到某個預(yù)定的足夠小的錯誤率或達(dá)到預(yù)先指定的最大迭代次數(shù)時停止訓(xùn)練。
  • AdaBoost 算法是一種集成學(xué)習(xí)的算法,其核心思想就是對多個機器學(xué)習(xí)模型進(jìn)行組合形成一個精度更高的模型,參與組合的模型稱為弱學(xué)習(xí)器。

二、算法原理

  • AdaBoost 的核心思想是針對同一訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個更強大的最終分類器(強分類器)。也 就是通過一些手段獲得多個弱分類器,將它們集成起來構(gòu)成強分類器,綜合所有分類器的預(yù)測得出最終的結(jié)果。
  • AdaBoost 算法本身是通過改變數(shù)據(jù)分布來實現(xiàn)的,它根據(jù)每次訓(xùn)練集中每個樣本的分類是否正確,以及上次的總體分類的準(zhǔn)確率,來確定每個樣本的權(quán)值。將修改過權(quán)值的新數(shù)據(jù)集送給下層分類器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類器最后融合起來,作為最后的決策分類器。

三、算法步驟

1.初始化訓(xùn)練數(shù)據(jù)的權(quán)值分布,每一個訓(xùn)練樣本最開始時都被賦予相同的權(quán)值 1/n

2.進(jìn)行多輪迭代,用 m = 1,2,…,k 表示迭代到第幾輪

3.使用具有權(quán)值分布 Gm 的訓(xùn)練數(shù)據(jù)集學(xué)習(xí),得到基本分類器

4.計算 Gm(x) 在訓(xùn)練數(shù)據(jù)集上的分類誤差率

5.計算 Gm(x) 的系數(shù),am表示 Gm(x) 在最終分類器中的重要程度

6.更新訓(xùn)練數(shù)據(jù)集的權(quán)值分布,得到樣本的新的權(quán)值分布,用于下一輪迭代

7.組合各個弱分類器

四、算法實現(xiàn)

from numpy import *
import matplotlib.pyplot as plt


# 加載數(shù)據(jù)集
def loadDataSet(fileName):
    numFeat = len(open(fileName).readline().split('\t'))
    dataMat = []
    labelMat = []
    fr = open(fileName)
    for line in fr.readlines():
        lineArr = []
        curLine = line.strip().split('\t')
        for i in range(numFeat - 1):
            lineArr.append(float(curLine[i]))
        dataMat.append(lineArr)
        labelMat.append(float(curLine[-1]))
    return dataMat, labelMat


# 返回分類預(yù)測結(jié)果  根據(jù)閾值所以有兩種返回情況
def stumpClassify(dataMatrix, dimen, threshVal, threshIneq):
    retArray = ones((shape(dataMatrix)[0], 1))
    if threshIneq == 'lt':
        retArray[dataMatrix[:, dimen] = threshVal] = -1.0
    else:
        retArray[dataMatrix[:, dimen] > threshVal] = -1.0
    return retArray


# 返回 該弱分類器單層決策樹的信息  更新D向量的錯誤率 更新D向量的預(yù)測目標(biāo)
def buildStump(dataArr, classLabels, D):
    dataMatrix = mat(dataArr)
    labelMat = mat(classLabels).T
    m, n = shape(dataMatrix)
    numSteps = 10.0
    bestStump = {}  # 字典用于保存每個分類器信息
    bestClasEst = mat(zeros((m, 1)))
    minError = inf  # 初始化最小誤差最大
    for i in range(n):  # 特征循環(huán)  (三層循環(huán),遍歷所有的可能性)
        rangeMin = dataMatrix[:, i].min()
        rangeMax = dataMatrix[:, i].max()
        stepSize = (rangeMax - rangeMin) / numSteps  # (大-小)/分割數(shù)  得到最小值到最大值需要的每一段距離
        for j in range(-1, int(numSteps) + 1):  # 遍歷步長 最小值到最大值的需要次數(shù)
            for inequal in ['lt', 'gt']:  # 在大于和小于之間切換
                threshVal = (rangeMin + float(j) * stepSize)  # 最小值+次數(shù)*步長  每一次從最小值走的長度
                predictedVals = stumpClassify(dataMatrix, i, threshVal,
                                              inequal)  # 最優(yōu)預(yù)測目標(biāo)值  用于與目標(biāo)值比較得到誤差
                errArr = mat(ones((m, 1)))
                errArr[predictedVals == labelMat] = 0
                weightedError = D.T * errArr
                if weightedError  minError:  # 選出最小錯誤的那個特征
                    minError = weightedError  # 最小誤差 后面用來更新D權(quán)值的
                    bestClasEst = predictedVals.copy()  # 最優(yōu)預(yù)測值

                    bestStump['dim'] = i  # 特征
                    bestStump['thresh'] = threshVal  # 到最小值的距離 (得到最優(yōu)預(yù)測值的那個距離)
                    bestStump['ineq'] = inequal  # 大于還是小于 最優(yōu)距離為-1
    return bestStump, minError, bestClasEst


# 循環(huán)構(gòu)建numIt個弱分類器
def adaBoostTrainDS(dataArr, classLabels, numIt=40):
    weakClassArr = []  # 保存弱分類器數(shù)組
    m = shape(dataArr)[0]
    D = mat(ones((m, 1)) / m)  # D向量 每條樣本所對應(yīng)的一個權(quán)重
    aggClassEst = mat(zeros((m, 1)))  # 統(tǒng)計類別估計累積值
    for i in range(numIt):
        bestStump, error, classEst = buildStump(dataArr, classLabels, D)
        alpha = float(0.5 * log((1.0 - error) / max(error, 1e-16)))
        bestStump['alpha'] = alpha
        weakClassArr.append(bestStump)  # 加入單層決策樹

        # 得到運算公式中的向量+/-α,預(yù)測正確為-α,錯誤則+α。每條樣本一個α
        # multiply對應(yīng)位置相乘  這里很聰明,用-1*真實目標(biāo)值*預(yù)測值,實現(xiàn)了錯誤分類則-,正確則+
        expon = multiply(-1 * alpha * mat(classLabels).T, classEst)
        D = multiply(D, exp(expon))  # 這三步為更新概率分布D向量 拆分開來了,每一步與公式相同
        D = D / D.sum()

        # 計算停止條件錯誤率=0 以及計算每次的aggClassEst類別估計累計值
        aggClassEst += alpha * classEst
        # 很聰明的計算方法 計算得到錯誤的個數(shù),向量中為1則錯誤值
        aggErrors = multiply(sign(aggClassEst) != mat(classLabels).T, ones((m, 1)))  # sign返回數(shù)值的正負(fù)符號,以1、-1表示
        errorRate = aggErrors.sum() / m  # 錯誤個數(shù)/總個數(shù)
        # print("錯誤率:", errorRate)
        if errorRate == 0.0:
            break
    return weakClassArr, aggClassEst


# 預(yù)測 累加 多個弱分類器獲得預(yù)測值*該alpha 得到結(jié)果
def adaClassify(datToClass, classifierArr):  # classifierArr是元組,所以在取值時需要注意
    dataMatrix = mat(datToClass)
    m = shape(dataMatrix)[0]
    aggClassEst = mat(zeros((m, 1)))
    # 循環(huán)所有弱分類器
    for i in range(len(classifierArr[0])):
        # 獲得預(yù)測結(jié)果
        classEst = stumpClassify(dataMatrix, classifierArr[0][i]['dim'], classifierArr[0][i]['thresh'],
                                 classifierArr[0][i]['ineq'])
        # 該分類器α*預(yù)測結(jié)果 用于累加得到最終的正負(fù)判斷條件
        aggClassEst += classifierArr[0][i]['alpha'] * classEst  # 這里就是集合所有弱分類器的意見,得到最終的意見
    return sign(aggClassEst)  # 提取數(shù)據(jù)符號

# ROC曲線,類別累計值、目標(biāo)標(biāo)簽
def plotROC(predStrengths, classLabels):
    cur = (1.0, 1.0)  # 每次畫線的起點游標(biāo)點
    ySum = 0.0  # 用于計算AUC的值 矩形面積的高度累計值
    numPosClas = sum(array(classLabels) == 1.0)  # 所有真實正例    確定了在y坐標(biāo)軸上的步進(jìn)數(shù)目
    yStep = 1 / float(numPosClas)  # 1/所有真實正例 y軸上的步長
    xStep = 1 / float(len(classLabels) - numPosClas)  # 1/所有真實反例 x軸上的步長
    sortedIndicies = predStrengths.argsort()  # 獲得累計值向量從小到大排序的下表index [50,88,2,71...]
    fig = plt.figure()
    fig.clf()
    ax = plt.subplot(111)
    # 循環(huán)所有的累計值 從小到大
    for index in sortedIndicies.tolist()[0]:
        if classLabels[index] == 1.0:
            delX = 0  # 若為一個真正例,則沿y降一個步長,即不斷降低真陽率;
            delY = yStep  # 若為一個非真正例,則沿x退一個步長,尖笑陽率
        else:
            delX = xStep
            delY = 0
            ySum += cur[1]  # 向下移動一次,則累計一個高度。寬度不變,我們只計算高度
        ax.plot([cur[0], cur[0] - delX], [cur[1], cur[1] - delY], c='b')  # 始終會有一個點是沒有改變的
        cur = (cur[0] - delX, cur[1] - delY)
    ax.plot([0, 1], [0, 1], 'b--')
    plt.xlabel('False positive rate')
    plt.ylabel('True positive rate')
    plt.title('ROC curve for AdaBoost horse colic detection system')
    ax.axis([0, 1, 0, 1])
    plt.show()
    print("the Area Under the Curve is: ", ySum * xStep)  # AUC面積我們以 高*低 的矩形來計算


# 測試正確率
datArr, labelArr = loadDataSet('horseColicTraining2.txt')
classifierArr = adaBoostTrainDS(datArr, labelArr, 15)

testArr, testLabelArr = loadDataSet('horseColicTest2.txt')
prediction10 = adaClassify(testArr, classifierArr)

errArr = mat(ones((67, 1)))  # 一共有67個樣本
cnt = errArr[prediction10 != mat(testLabelArr).T].sum()
print(cnt / 67)

# 畫出ROC曲線
datArr, labelArr = loadDataSet('horseColicTraining2.txt')
classifierArray, aggClassEst = adaBoostTrainDS(datArr, labelArr, 10)
plotROC(aggClassEst.T, labelArr)

五、算法優(yōu)化

  • 權(quán)值更新方法的改進(jìn)

在實際訓(xùn)練過程中可能存在正負(fù)樣本失衡的問題,分類器會過于關(guān)注大容量樣本,導(dǎo)致分類器不能較好地完成區(qū)分小樣本的目的。此時可以適度增大小樣本的權(quán)重使重心達(dá)到平衡。在實際訓(xùn)練中還會出現(xiàn)困難樣本權(quán)重過高而發(fā)生過擬合的問題,因此有必要設(shè)置困難樣本分類的權(quán)值上限。

  • 訓(xùn)練方法的改進(jìn)

AdaBoost算法由于其多次迭代訓(xùn)練分類器的原因,訓(xùn)練時間一般會比別的分類器長。對此一般可以采用實現(xiàn)AdaBoost的并行計算或者訓(xùn)練過程中動態(tài)剔除掉權(quán)重偏小的樣本以加速訓(xùn)練過程。

  • 多算法結(jié)合的改進(jìn)

除了以上算法外,AdaBoost還可以考慮與其它算法結(jié)合產(chǎn)生新的算法,如在訓(xùn)練過程中使用SVM算法加速挑選簡單分類器來替代原始AdaBoost中的窮舉法挑選簡單的分類器。

到此這篇關(guān)于Python機器學(xué)習(xí)之AdaBoost算法的文章就介紹到這了,更多相關(guān)Python AdaBoost算法內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python實現(xiàn)AdaBoost算法的示例
  • 使用python-cv2實現(xiàn)Harr+Adaboost人臉識別的示例
  • Python基于OpenCV庫Adaboost實現(xiàn)人臉識別功能詳解
  • Python 機器學(xué)習(xí)工具包SKlearn的安裝與使用
  • Python機器學(xué)習(xí)之邏輯回歸
  • python機器學(xué)習(xí)之線性回歸詳解
  • python機器學(xué)習(xí)包mlxtend的安裝和配置詳解
  • Python機器學(xué)習(xí)算法庫scikit-learn學(xué)習(xí)之決策樹實現(xiàn)方法詳解
  • python 機器學(xué)習(xí)之支持向量機非線性回歸SVR模型

標(biāo)簽:潛江 株洲 呂梁 常德 通遼 黑龍江 銅川 阿里

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python機器學(xué)習(xí)之AdaBoost算法》,本文關(guān)鍵詞  Python,機器,學(xué),習(xí)之,AdaBoost,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python機器學(xué)習(xí)之AdaBoost算法》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python機器學(xué)習(xí)之AdaBoost算法的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    一区二区三区在线观看动漫| 欧美经典一区二区三区| 在线亚洲人成电影网站色www| 欧美亚洲一区三区| 一区二区视频在线| 成人h精品动漫一区二区三区| 日韩欧美高清dvd碟片| 亚洲美女在线一区| 色婷婷狠狠综合| 亚洲综合一区在线| 欧美狂野另类xxxxoooo| 日韩电影免费一区| 制服.丝袜.亚洲.另类.中文| 麻豆久久一区二区| 精品国产一二三区| 国产乱码精品一区二区三 | 在线播放欧美女士性生活| 国产69精品久久99不卡| 中文字幕av一区二区三区| 91精品国产综合久久精品性色| 99精品视频在线免费观看| 亚洲精品国久久99热| 国产校园另类小说区| 91小视频免费观看| 性久久久久久久久久久久| 欧美无乱码久久久免费午夜一区| 国产a久久麻豆| 国产麻豆成人传媒免费观看| 国产精品久线在线观看| 色婷婷久久久综合中文字幕| 成人一区在线看| 亚洲国产日韩在线一区模特| 欧美成人艳星乳罩| 99精品国产视频| 懂色av中文一区二区三区| 国产一二精品视频| 国产一区三区三区| 国产一区二区在线看| 久久99在线观看| 中文字幕一区在线| 欧美一级高清片| 91捆绑美女网站| 91亚洲精品一区二区乱码| 成人高清视频在线| 99久久精品免费| 日本久久精品电影| 欧美精品在线一区二区三区| 欧美日韩成人综合天天影院| 从欧美一区二区三区| 成人国产亚洲欧美成人综合网| 国产高清无密码一区二区三区| 亚洲综合区在线| 亚洲一线二线三线视频| 亚洲成人黄色小说| 久久se精品一区精品二区| 激情小说欧美图片| 日韩电影在线一区二区三区| 水野朝阳av一区二区三区| 国产精品久久久久一区二区三区 | 亚洲国产精品t66y| 国产精品乱码一区二区三区软件| 欧美丰满少妇xxxbbb| 日韩欧美在线1卡| 久久精品日产第一区二区三区高清版 | 免费不卡在线观看| 亚洲一区二区三区四区在线| 亚洲国产三级在线| 免费精品视频在线| 成人福利视频网站| 欧美视频一区二区三区在线观看 | 成人黄色av网站在线| 一本色道久久综合亚洲aⅴ蜜桃 | 亚洲午夜一区二区| 极品尤物av久久免费看| 天天做天天摸天天爽国产一区| 成人免费在线播放视频| 午夜久久久影院| 国产一区二区久久| 91久久精品国产91性色tv| 日韩欧美色电影| 国产精品久久久久久户外露出 | 欧美经典一区二区三区| 亚洲一区二区在线免费观看视频| 麻豆成人免费电影| 91免费国产在线观看| 欧美成人一区二区三区片免费| 国产精品久久久久三级| 日韩vs国产vs欧美| 99精品热视频| 欧美videos中文字幕| 亚洲激情图片一区| 国产一区二区在线看| 在线精品国精品国产尤物884a | 亚洲一区在线观看免费观看电影高清 | 亚洲国产欧美日韩另类综合| 国产一区二区三区观看| 欧美在线看片a免费观看| 国产午夜精品一区二区三区视频| 一级中文字幕一区二区| 成人av电影免费观看| 5566中文字幕一区二区电影| 中文字幕在线观看不卡| 国产综合久久久久久久久久久久| 欧美性色欧美a在线播放| 国产精品午夜免费| 狠狠色伊人亚洲综合成人| 欧美日韩一区二区电影| 欧美精品 国产精品| 国产精品丝袜久久久久久app| 男女性色大片免费观看一区二区| 欧美综合久久久| 日韩伦理电影网| 午夜视频在线观看一区二区| 成人av在线网站| 欧美精品一区二区久久久| 亚洲电影你懂得| 在线一区二区三区四区五区 | 成人一区二区三区中文字幕| 精品美女被调教视频大全网站| 亚洲午夜在线视频| 欧美亚洲国产怡红院影院| 国产精品嫩草99a| 成人在线视频一区| 国产欧美综合在线| 国产精品888| 久久久久免费观看| 亚洲欧美韩国综合色| 国产成都精品91一区二区三| 2021中文字幕一区亚洲| 伊人色综合久久天天| 91影视在线播放| 亚洲精品免费在线观看| 色综合网站在线| 日韩欧美国产午夜精品| 天堂一区二区在线免费观看| 欧美乱妇15p| 日本网站在线观看一区二区三区| 91精品国产综合久久香蕉的特点 | 国产成人精品在线看| 久久久久久97三级| 国产专区欧美精品| 中文字幕 久热精品 视频在线| 国产成人精品aa毛片| 国产精品成人一区二区艾草 | 久久久久亚洲蜜桃| 成人精品视频一区二区三区| 亚洲国产精品精华液2区45| 99久久99久久精品免费观看| 亚洲精品视频免费看| 在线观看日韩av先锋影音电影院| 亚洲成人动漫在线免费观看| 日韩亚洲欧美综合| 国产精品99久久久久久久vr | 亚洲国产精品一区二区www在线| 精品视频资源站| 激情综合五月婷婷| 国产精品久久久久久久久免费桃花| 95精品视频在线| 天堂av在线一区| 久久久久国产精品厨房| 不卡欧美aaaaa| 亚洲成a人片综合在线| 精品免费国产二区三区| 成人av网站在线| 香蕉影视欧美成人| 国产色产综合产在线视频| 色哟哟精品一区| 久久狠狠亚洲综合| 中文字幕国产精品一区二区| 在线观看视频欧美| 国产精品白丝av| 亚洲午夜精品久久久久久久久| 6080午夜不卡| 成人黄色软件下载| 秋霞国产午夜精品免费视频| 国产三级欧美三级| 欧美色精品天天在线观看视频| 激情小说欧美图片| 亚洲一区二区视频在线| 精品国产亚洲在线| 欧美性色综合网| 成人黄色在线网站| 麻豆视频观看网址久久| 亚洲人吸女人奶水| 久久久不卡网国产精品二区| 欧美三级中文字幕| 成人av午夜影院| 麻豆视频一区二区| 亚洲午夜一区二区三区| 日本一区二区免费在线| 日韩一区二区在线观看视频播放| 福利一区二区在线观看| 日本人妖一区二区| 亚洲一区二区三区精品在线| 久久精品一区二区三区不卡| 91麻豆精品国产91久久久久久| 91亚洲男人天堂| 国产成人夜色高潮福利影视| 日日夜夜精品视频免费| 亚洲人成小说网站色在线|