婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識(shí)庫 > 利用Python如何實(shí)現(xiàn)K-means聚類算法

利用Python如何實(shí)現(xiàn)K-means聚類算法

熱門標(biāo)簽:ai電銷機(jī)器人源碼 西藏房產(chǎn)智能外呼系統(tǒng)要多少錢 湛江智能外呼系統(tǒng)廠家 宿遷星美防封電銷卡 長沙高頻外呼系統(tǒng)原理是什么 ai電話機(jī)器人哪里好 地圖標(biāo)注審核表 百度地圖標(biāo)注沒有了 外呼并發(fā)線路

前言

K-Means 是一種非常簡單的聚類算法(聚類算法都屬于無監(jiān)督學(xué)習(xí))。給定固定數(shù)量的聚類和輸入數(shù)據(jù)集,該算法試圖將數(shù)據(jù)劃分為聚類,使得聚類內(nèi)部具有較高的相似性,聚類與聚類之間具有較低的相似性。

算法原理

1. 初始化聚類中心,或者在輸入數(shù)據(jù)范圍內(nèi)隨機(jī)選擇,或者使用一些現(xiàn)有的訓(xùn)練樣本(推薦)

2. 直到收斂

  • 將每個(gè)數(shù)據(jù)點(diǎn)分配到最近的聚類。點(diǎn)與聚類中心之間的距離是通過歐幾里德距離測(cè)量得到的。
  • 通過將聚類中心的當(dāng)前估計(jì)值設(shè)置為屬于該聚類的所有實(shí)例的平均值,來更新它們的當(dāng)前估計(jì)值。

目標(biāo)函數(shù)

聚類算法的目標(biāo)函數(shù)試圖找到聚類中心,以便數(shù)據(jù)將劃分到相應(yīng)的聚類中,并使得數(shù)據(jù)與其最接近的聚類中心之間的距離盡可能小。

給定一組數(shù)據(jù)X1,...,Xn和一個(gè)正數(shù)k,找到k個(gè)聚類中心C1,...,Ck并最小化目標(biāo)函數(shù):

其中是質(zhì)心,計(jì)算表達(dá)式為

上圖a表達(dá)了初始的數(shù)據(jù)集,假設(shè)k=2。在圖b中,我們隨機(jī)選擇了兩個(gè)k類所對(duì)應(yīng)的類別質(zhì)心,即圖中的紅色質(zhì)心和藍(lán)色質(zhì)心,然后分別求樣本中所有點(diǎn)到這兩個(gè)質(zhì)心的距離,并標(biāo)記每個(gè)樣本的類別為和該樣本距離最小的質(zhì)心的類別,如圖c所示,經(jīng)過計(jì)算樣本和紅色質(zhì)心和藍(lán)色質(zhì)心的距離,我們得到了所有樣本點(diǎn)的第一輪迭代后的類別。此時(shí)我們對(duì)我們當(dāng)前標(biāo)記為紅色和藍(lán)色的點(diǎn)分別求其新的質(zhì)心,如圖4所示,新的紅色質(zhì)心和藍(lán)色質(zhì)心的位置已經(jīng)發(fā)生了變動(dòng)。圖e和圖f重復(fù)了我們?cè)趫Dc和圖d的過程,即將所有點(diǎn)的類別標(biāo)記為距離最近的質(zhì)心的類別并求新的質(zhì)心。最終我們得到的兩個(gè)類別如圖f。當(dāng)然在實(shí)際K-Mean算法中,我們一般會(huì)多次運(yùn)行圖c和圖d,才能達(dá)到最終的比較優(yōu)的類別。

算法流程

注意點(diǎn):

  1. 對(duì)于K-Means算法,首先要注意的是k值的選擇,一般來說,我們會(huì)根據(jù)對(duì)數(shù)據(jù)的先驗(yàn)經(jīng)驗(yàn)選擇一個(gè)合適的k值,如果沒有什么先驗(yàn)知識(shí),則可以通過交叉驗(yàn)證選擇一個(gè)合適的k值
  2. 在確定了k的個(gè)數(shù)后,我們需要選擇k個(gè)初始化的質(zhì)心,就像上圖b中的隨機(jī)質(zhì)心。由于我們是啟發(fā)式方法,k個(gè)初始化的質(zhì)心的位置選擇對(duì)最后的聚類結(jié)果和運(yùn)行時(shí)間都有很大的影響,因此需要選擇合適的k個(gè)質(zhì)心,最好這些質(zhì)心不能太近。

流程:

輸入是樣本集D={x1,x2,...xm},聚類的簇樹k,最大迭代次數(shù)N

輸出是簇劃分C={C1,C2,...Ck}

    1) 從數(shù)據(jù)集D中隨機(jī)選擇k個(gè)樣本作為初始的k個(gè)質(zhì)心向量: {μ1,μ2,...,μk}

    2)對(duì)于n=1,2,...,N

      a) 將簇劃分C初始化為Ct=∅  t=1,2...k

      b) 對(duì)于i=1,2...m,計(jì)算樣本xi和各個(gè)質(zhì)心向量μj(j=1,2,...k)的距離:,將xixi標(biāo)記最小的為所對(duì)應(yīng)的類別。此時(shí)更新

      c) 對(duì)于j=1,2,...,k,對(duì)Cj中所有的樣本點(diǎn)重新計(jì)算新的質(zhì)心

      e) 如果所有的k個(gè)質(zhì)心向量都沒有發(fā)生變化,則轉(zhuǎn)到步驟3)

    3) 輸出簇劃分C={C1,C2,...Ck}

 Python實(shí)現(xiàn)

import numpy as np
import matplotlib.pyplot as plt
import random
from sklearn.datasets import make_blobs
np.random.seed(123)
from sklearn.cluster import KMeans
class Kmeans:
    def __init__(self,data,k):
        self.data=data
        self.k = k
    def cluster_data_Bysklearn(self):
        kmeans_model = KMeans(self.k,random_state=1)
        labels = kmeans_model.fit(self.data).labels_
        print(labels)
        return labels
 
    def kmeans(self):
        # 獲取4個(gè)隨機(jī)數(shù)
        rarray = np.random.random(size=self.k)
        # 乘以數(shù)據(jù)集大小——>數(shù)據(jù)集中隨機(jī)的4個(gè)點(diǎn)
        rarray = np.floor(rarray * len(self.data))
        # 轉(zhuǎn)為int
        rarray = rarray.astype(int)
        print('數(shù)據(jù)集中隨機(jī)索引', rarray)
        # 隨機(jī)取數(shù)據(jù)集中的4個(gè)點(diǎn)作為初始中心點(diǎn)
        center = data[rarray]
        # 測(cè)試比較偏、比較集中的點(diǎn),效果依然完美,測(cè)試需要?jiǎng)h除以上代碼
        # center = np.array([[4.6,-2.5],[4.4,-1.7],[4.3,-0.7],[4.8,-1.1]])
        # 1行80列的0數(shù)組,標(biāo)記每個(gè)樣本所屬的類(k[i])
        cls = np.zeros([len(self.data)], np.int)
        print('初始center=\n', center)
        run = True
        time = 0
        n = len(self.data)
        while run:
            time = time + 1
            for i in range(n):
                # 求差
                tmp = data[i] - center
                # 求平方
                tmp = np.square(tmp)
                # axis=1表示按行求和
                tmp = np.sum(tmp, axis=1)
                # 取最小(最近)的給該點(diǎn)“染色”(標(biāo)記每個(gè)樣本所屬的類(k[i]))
                cls[i] = np.argmin(tmp)
            # 如果沒有修改各分類中心點(diǎn),就結(jié)束循環(huán)
            run = False
            # 計(jì)算更新每個(gè)類的中心點(diǎn)
            for i in range(self.k):
                # 找到屬于該類的所有樣本
                club = data[cls == i]
                # axis=0表示按列求平均值,計(jì)算出新的中心點(diǎn)
                newcenter = np.mean(club, axis=0)
                # 如果新舊center的差距很小,看做他們相等,否則更新之。run置true,再來一次循環(huán)
                ss = np.abs(center[i] - newcenter)
                if np.sum(ss, axis=0) > 1e-4:
                    center[i] = newcenter
                    run = True
            print('new center=\n', center)
        print('程序結(jié)束,迭代次數(shù):', time)
        # 按類打印圖表,因?yàn)槊看蛴∫淮危伾疾灰粯樱钥蓞^(qū)分出來
        # for i in range(self.k):
        #     club = data[cls == i]
        #     self.showtable(club)
        # 打印最后的中心點(diǎn)
        self.showtable(center)
        #打印聚類標(biāo)簽
        print(cls)
 
    def showtable(self,data):
        x = data.T[0]
        y = data.T[1]
        plt.scatter(x, y)
        plt.show()
 
if __name__ == '__main__':
    data = np.random.rand(10,2)
    K = 4
    model = Kmeans(data,K)
 
    model.kmeans()
    model.cluster_data_Bysklearn()

結(jié)果:

自寫得出的    [0 2 0 0 0 2 3 2 1 2]
調(diào)用模型的出的[0 2 0 1 0 2 3 2 3 0]

jupyter notebook實(shí)現(xiàn)

import numpy as np
import matplotlib.pyplot as plt
import random
from sklearn.datasets import make_blobs
 
 
%matplotlib inline
X, y = make_blobs(centers=6, n_samples=1000)
print(f'Shape of dataset: {X.shape}')
 
fig = plt.figure(figsize=(8,6))
plt.scatter(X[:,0], X[:,1], c=y)
plt.title("Dataset with 6 clusters")
plt.xlabel("First feature")
plt.ylabel("Second feature")
plt.show()

 

class KMeans():
    def __init__(self, n_clusters=6):
        self.k = n_clusters
 
    def fit(self, data):
        """
        Fits the k-means model to the given dataset
        """
        n_samples, _ = data.shape
        # initialize cluster centers
        self.centers = np.array(random.sample(list(data), self.k))
        self.initial_centers = np.copy(self.centers)
 
        # We will keep track of whether the assignment of data points
        # to the clusters has changed. If it stops changing, we are 
        # done fitting the model
        old_assigns = None
        n_iters = 0
 
        while True:
            new_assigns = [self.classify(datapoint) for datapoint in data]
 
            if new_assigns == old_assigns:
                print(f"Training finished after {n_iters} iterations!")
                return
 
            old_assigns = new_assigns
            n_iters += 1
 
            # recalculate centers
            for id_ in range(self.k):
                points_idx = np.where(np.array(new_assigns) == id_)
                datapoints = data[points_idx]
                self.centers[id_] = datapoints.mean(axis=0)
 
    def l2_distance(self, datapoint):
        dists = np.sqrt(np.sum((self.centers - datapoint)**2, axis=1))
        return dists
 
    def classify(self, datapoint):
        """
        Given a datapoint, compute the cluster closest to the
        datapoint. Return the cluster ID of that cluster.
        """
        dists = self.l2_distance(datapoint)
        return np.argmin(dists)
 
    def plot_clusters(self, data):
        plt.figure(figsize=(12,10))
        plt.title("Initial centers in black, final centers in red")
        plt.scatter(data[:, 0], data[:, 1], marker='.', c='y')
        plt.scatter(self.centers[:, 0], self.centers[:,1], c='r')
        plt.scatter(self.initial_centers[:, 0], self.initial_centers[:,1], c='k')
        plt.show()
X = np.random.randn(10,100)
kmeans = KMeans(n_clusters=6)
kmeans.fit(X)
for data in X:
    print(kmeans.classify(data))

總結(jié)

K-Means的主要優(yōu)點(diǎn):

1)原理簡單,容易實(shí)現(xiàn)

2)可解釋度較強(qiáng)

K-Means的主要缺點(diǎn):

1)K值很難確定

2)局部最優(yōu)

3)對(duì)噪音和異常點(diǎn)敏感

4)需樣本存在均值(限定數(shù)據(jù)種類)

5)聚類效果依賴于聚類中心的初始化

6)對(duì)于非凸數(shù)據(jù)集或類別規(guī)模差異太大的數(shù)據(jù)效果不好

到此這篇關(guān)于利用Python如何實(shí)現(xiàn)K-means聚類算法的文章就介紹到這了,更多相關(guān)Python實(shí)現(xiàn)K-means聚類算法內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python中實(shí)現(xiàn)k-means聚類算法詳解
  • python實(shí)現(xiàn)鳶尾花三種聚類算法(K-means,AGNES,DBScan)
  • python基于K-means聚類算法的圖像分割
  • K-means聚類算法介紹與利用python實(shí)現(xiàn)的代碼示例
  • Python機(jī)器學(xué)習(xí)之K-Means聚類實(shí)現(xiàn)詳解
  • 在Python中使用K-Means聚類和PCA主成分分析進(jìn)行圖像壓縮
  • Python機(jī)器學(xué)習(xí)算法之k均值聚類(k-means)
  • python實(shí)現(xiàn)k-means聚類算法
  • Python用K-means聚類算法進(jìn)行客戶分群的實(shí)現(xiàn)
  • k-means 聚類算法與Python實(shí)現(xiàn)代碼

標(biāo)簽:普洱 大同 南平 林芝 寧夏 海南 漯河 盤錦

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《利用Python如何實(shí)現(xiàn)K-means聚類算法》,本文關(guān)鍵詞  利用,Python,如何,實(shí)現(xiàn),K-means,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《利用Python如何實(shí)現(xiàn)K-means聚類算法》相關(guān)的同類信息!
  • 本頁收集關(guān)于利用Python如何實(shí)現(xiàn)K-means聚類算法的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    欧美mv日韩mv国产网站app| 国产精品国产自产拍在线| 欧美草草影院在线视频| 国产精品乱码人人做人人爱 | 午夜精品国产更新| 国产成人精品1024| 日韩视频中午一区| 亚洲国产精品久久久男人的天堂| 国产美女在线观看一区| 欧美精品一二三区| 一区二区三区四区在线播放| 国产成人av电影| 精品久久国产字幕高潮| 亚洲成av人**亚洲成av**| 91亚洲精品久久久蜜桃网站| 日本一区二区高清| 韩国av一区二区三区| 日韩一级片在线播放| 亚洲成人在线免费| 色综合久久综合网欧美综合网| 国产日产欧美一区二区视频| 美女网站一区二区| 日韩一区二区免费视频| 日韩精品一二区| 欧美日韩午夜影院| 香蕉久久夜色精品国产使用方法 | 一区二区三区国产精品| 成人av在线观| 中文字幕一区av| 色域天天综合网| 亚洲精品视频自拍| 欧美午夜精品久久久久久孕妇| 亚洲美女视频在线| 色8久久人人97超碰香蕉987| 亚洲视频在线观看一区| 91麻豆精品一区二区三区| 国产精品国产三级国产aⅴ无密码| 国产iv一区二区三区| 中文一区在线播放| 99国产精品视频免费观看| 国产精品视频线看| 91欧美激情一区二区三区成人| 中文字幕在线观看不卡视频| 91在线porny国产在线看| 亚洲国产日产av| 日韩欧美在线一区二区三区| 激情综合色播激情啊| 中文字幕欧美三区| 欧美伊人精品成人久久综合97| 午夜精品成人在线视频| 欧美第一区第二区| caoporn国产一区二区| 亚洲一区在线看| 日韩免费成人网| 粉嫩欧美一区二区三区高清影视| 国产精品夫妻自拍| 欧美人伦禁忌dvd放荡欲情| 精品一区二区三区在线观看| 国产精品麻豆欧美日韩ww| 欧美影院精品一区| 精品夜夜嗨av一区二区三区| 自拍偷拍亚洲综合| 日韩网站在线看片你懂的| 国产91精品一区二区麻豆亚洲| 一区二区在线电影| 精品国产凹凸成av人导航| 99久久久精品| 久久精工是国产品牌吗| 亚洲日本va午夜在线影院| 日韩精品在线看片z| 99在线精品观看| 奇米色一区二区| 亚洲欧美欧美一区二区三区| 91精品国产综合久久久久久久| 成人综合婷婷国产精品久久蜜臀| 亚洲成人免费视| 中文字幕高清不卡| 日韩欧美成人午夜| 欧洲一区二区三区免费视频| 国产乱色国产精品免费视频| 性做久久久久久免费观看欧美| 日本一区二区三区久久久久久久久不| 欧美日韩精品系列| 91偷拍与自偷拍精品| 国产一区二区久久| 美国欧美日韩国产在线播放| 一区二区激情小说| 国产精品另类一区| 久久噜噜亚洲综合| 日韩视频免费观看高清在线视频| 一本到三区不卡视频| 暴力调教一区二区三区| 国产一区二区精品在线观看| 日韩av电影一区| 亚洲国产成人91porn| 亚洲精品视频一区二区| 中文字幕亚洲在| 中文字幕av在线一区二区三区| 久久久久国产精品人| 26uuu精品一区二区| 欧美一级xxx| 91麻豆精品国产无毒不卡在线观看| 91丨九色丨黑人外教| 91视频精品在这里| av亚洲精华国产精华精华 | 国产精品三级电影| 国产日韩精品一区二区浪潮av| 精品奇米国产一区二区三区| 欧美一区二区黄| 宅男在线国产精品| 日韩午夜av电影| 精品三级在线看| 精品国产网站在线观看| 精品国产乱码久久久久久老虎 | 日韩一卡二卡三卡| 91精品国产综合久久国产大片 | 国产精品网曝门| 国产精品美女www爽爽爽| 中文字幕av免费专区久久| 中文字幕永久在线不卡| 亚洲精品视频在线| 亚洲成人综合视频| 蜜桃久久久久久| 韩国精品久久久| 成人三级伦理片| 日本精品视频一区二区三区| 在线免费观看日本欧美| 欧美高清在线一区二区| 日本一区二区三区久久久久久久久不| 国产精品―色哟哟| 亚洲人成影院在线观看| 亚洲va在线va天堂| 狠狠色狠狠色合久久伊人| 粉嫩在线一区二区三区视频| 91视频国产资源| 91精品国产黑色紧身裤美女| 久久品道一品道久久精品| 中文字幕日韩欧美一区二区三区| 亚洲国产美女搞黄色| 久久国产精品区| 成人黄色电影在线| 欧美日韩一区高清| 久久久精品日韩欧美| 亚洲男人的天堂网| 麻豆国产91在线播放| 99视频精品全部免费在线| 欧美另类videos死尸| 久久久精品综合| 一区二区在线电影| 韩国午夜理伦三级不卡影院| 91网站在线播放| 欧美精品一区二区三区很污很色的 | 欧美韩国一区二区| 视频一区视频二区在线观看| 国产精品资源在线观看| 欧美日韩精品二区第二页| 久久精品水蜜桃av综合天堂| 亚洲高清不卡在线| 成人综合激情网| 欧美大片日本大片免费观看| 亚洲欧美另类久久久精品2019| 久久精品国产久精国产| 色狠狠一区二区三区香蕉| 久久影院视频免费| 水野朝阳av一区二区三区| 99久精品国产| 久久久久久久久久电影| 天堂av在线一区| 色天使色偷偷av一区二区| 国产欧美日韩精品一区| 婷婷久久综合九色综合绿巨人| 成人美女在线观看| 久久久久久一二三区| 日韩电影免费在线看| 日本韩国一区二区| 亚洲特级片在线| 国产99精品在线观看| 久久亚洲综合av| 蜜桃久久精品一区二区| 在线观看91精品国产麻豆| 亚洲国产中文字幕在线视频综合| av在线这里只有精品| 欧美激情在线一区二区三区| 韩国av一区二区三区| 欧美xxxxx牲另类人与| 日本中文一区二区三区| 91久久一区二区| 亚洲精品国产精品乱码不99| 91亚洲精品久久久蜜桃| 亚洲视频香蕉人妖| 91小视频免费看| 亚洲精品免费播放| 91蜜桃网址入口| 国产精品高潮呻吟久久| 99久久久无码国产精品| 国产精品人妖ts系列视频| av午夜一区麻豆| 亚洲男人的天堂在线aⅴ视频| 色88888久久久久久影院按摩 | 欧美无砖专区一中文字|