婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 怎么從技術的角度去分析12306實現高流量高并發的問題

怎么從技術的角度去分析12306實現高流量高并發的問題

熱門標簽:做地圖標注哪里找客戶 滕州辦理400電話辦理 額爾古納市地圖標注app 外呼系統打電話封卡 塵以科技地圖標注 電銷機器人的功效與作用 南寧智能外呼系統價錢 怎樣地推百度地圖標注 山東臨沂地圖標注

  12306網站曾被認為是“全球最忙碌的網站”,在應對高并發訪問處理方面,曾備受網民詬病。因此記者在第一時間聯系到一位對12306改造非常關注的技術架構師,他從技術的角度,用科學論證的方式,指出原因所在,并根據他的經驗進一步說明12306是如何實現高流量高并發的關鍵技術,與大家共享。以下為正文:

  前言:

  12306互聯網售票系統在2011年下半年開始上線使用,但在2012年春運期間引發無數的爭議。在2012年春運后,12306項目承接單位與多家IT公司聯系,經過多次論證和POC 測試, 最終引入分布式內存運算數據管理云平臺 - Pivotal Gemfire做試點,用以提高12306系統性能,解決“高流量和高并發“的難題。

  高流量高并發是指某特定時間段的海量請求,根據過去的經驗法則,高并發是指訪問流量是平常流量的 3-5倍;但由于互聯網和移動設備apps的普遍化,電商網站的促銷模式“11.11“,或是廠商的“饑餓營銷“,都會衍生“秒殺“現象。所以過去的經驗法則用到12306春運售票系統,往往是遠遠低于實際的的流量。例如,12306平常一天的PV(page views)值大約是在 2500萬到 3000萬左右, 在2015年春運高峰日的PV值是297億,流量增加1000倍,這樣海量的請求,假如不能在短時間內動態調整網絡帶寬或增加服務器數量,就會造成網絡阻塞或是服務器性能無法滿足要求,甚至使整個系統不穩定。

  12306成長之路

  短短的3年,從2012年春運到2015年春運,12306網站從10億的PV(page views)值增加到297億PV值,PV值成長 30倍;網絡帶寬從 1.5G調整到12G,帶寬成長8倍;而12306的售票量從110萬增加到564萬 ,成長5倍。出票處理能力從 每秒200張提升到 每秒1032張,也是5倍的成長。

  PV值的增加是與放票的次數和可出售的票量有關系,例如,2015年PV值是2014年的2.3倍, 原因是放票次數多了5次“秒殺”,另外增加12% 的售票量。由此可見,互聯網流量PV值的增加速度遠遠高于售票量增加的速度。

  高流量除了代表網絡容易造成阻塞以外,系統服務器也會面臨更高的CPU負載,在此情況下又該如何應對呢?是選擇基于原來系統框架上購買更昂貴的硬件做“scale up“升級呢 ?還是選擇購買低成本的x86服務器,進行”可擴展云平臺架構“ scale out的改造設計呢?12306互聯網購票系統的改造給我們一個很好的案例參考,也讓政府單位和企業進一步了解了具體是如何實現的。

  12306改造的關鍵技術– 建立可伸縮擴展的云應用平臺

  2015年12306網站順利過關,沒有“癱瘓”,是值得慶祝的。根據互聯網上的新聞,中國鐵道科學研究院電子計算技術研究所副所長,12306網站技術負責人朱建生說,為了應對2015年春運售票高峰,該網站采取5項措施:一是利用外部云計算資源分擔系統查詢業務,可根據高峰期業務量的增長按需及時擴充。二是通過雙中心運行的架構,系統內部處理容量擴充一倍,可靠性得到有效保證。三是對系統的互聯網接入帶寬進行擴容,并可根據流量情況快速調整,保證高峰時段旅客順暢訪問網站。四是防范惡意搶票,通過技術手段屏蔽搶票軟件產生的惡意流量,保證網站健康運行,維護互聯網售票秩序。五是制定了多套應急預案,以應對突發情況。

  “利用云計算資源“,“按需及時擴充“和”快速調整“,這幾個字眼是12306改造的精神,其核心就是要建立一個從下到上全面“可伸縮擴展的云平臺”。底層的硬件架構要支持可伸縮擴展,上層的應用系統架構也需要支持可伸縮擴展。

  1. 在過去數年,云計算的基礎架構虛擬化已經非常成熟,也日益普遍部署;當網絡阻塞時,可以動態增加帶寬,當服務器 CPU到達高位時,可以快速從資源池獲取虛擬機資源來分攤負荷。 “軟件定義的數據中心“ 可以輕易完成這些伸縮性擴展的配置。

  2. 當客戶將底層的架構都虛擬化后,網絡設備,Web服務器,應用服務器都可以做“伸縮性”的擴展;但遇到一個難點就是“12306的應用系統框架”無法支持可伸縮擴展。原因是關系型數據庫Sybase無法支持“應用系統”的伸縮擴展。

  3. 客戶在過去數年已經投入大筆經費在IT方面的建設,但“系統框架設計”還是沿用10幾年前的三層設計,而且每年都在原來的基礎上做不斷的升級。當業務不斷成長時,數據量也跟著成長,功能越來越多, 但系統性能越來越差。客戶該如何選擇呢 ?是 scale up? 還是 scale out ?

  為什么選擇Pivotal Gemfire構建12306的云應用平臺?

  要解決12306春運時高流量高并發的問題,如果單靠硬件升級解決的話,可能需要擴充數十倍的硬件服務器。但在春運以后,又該如何解決服務器過剩的問題呢?

  要真正解決“高流量,高并發“的難題是需要從軟件和應用系統層面出發,唯有實現“可擴展的應用云平臺架構”,靈活和快速熱部署的機制,才是真正解決高并發訪問的根本。

  在經過多次論證和POC測試后, 12306 最后選擇Pivotal Gemfire作為系統改造的平臺,其主要原因如下:

  1. 關聯數據節點設計:可以根據客戶的業務邏輯特性和數據關聯性,將關聯性強的數據放置于同一個服務器節點,提高系統性能,避免分布式系統服務器的頻繁數據交換。

  2. 將數據移到內存:由于數據是放在內存里面,屏蔽傳統數據庫頻繁訪問, CPU與數據庫的交互作用,影響服務器性能。內存的數據交換速度遠高于磁盤速度上千倍, 極大提高系統性能。

  3. 擴展和伸縮性:以Gemfire構建的應用云平臺,是以 x86 PC服務器為主的硬件基礎。在保證系統的性能下,此平臺可以隨著客戶業務的成長來任意調配x86服務器的數量,避免以后昂貴的硬件升級帶來的困擾。經POC測試結果顯示,整個系統性能可隨著服務器的數量的增加實現幾乎線性的成長。

  4. 數據可靠性:在同個集群里面可以有多個數據節點備份,數據可以自動同步,或是將內存數據持久化到硬盤或是數據庫

  5. 跨地域的數據分布或同步 :可以透過“廣域網”將指定的 Gemfire集群的內存數據“實時同步”到異地的數據中心。這是屬于“應用層”的數據同步異于傳統的“數據庫”同步。

  6. Pivotal Gemfire使用 x86 PC服務器,其性價比遠遠高于 Unix 小型機。

  (1)網絡阻塞是個門檻

  網絡是進入12306征程的起點,網絡帶寬快慢往往決定“秒殺“的結果,這在很多電商網站促銷時時常發生, 因此12306也無法避免。下面數字是由互聯網收集得到的,可能有偏差。但我們盡可能根據這些數目字來解析數年來網絡原因發生的問題。

  2012 年:12306 第一次在春運使用, 網絡帶寬1.5G,可以支持最大的PV值是11,250;根據報導,此系統有10,000人的登陸限制, 假如每人每秒點擊一次的話,理論上是可以勉強支持正常的點擊量。

  但在購票尖峰日,有上千萬的網民第一次上網購票,在無法登陸的情況下, 用戶不斷刷取首頁,或是已登陸者無法得到系統的及時反應,不斷點擊頁面,產生大量的請求,造成網絡和系統的高負載,導致崩潰。

  2013年 :寬帶增加一倍到達3G頻寬,有20萬用戶登陸的限制,采取10次放票,分散流量,防止買票過度集中;但不幸的是“刷票軟件”橫行,每秒可以刷票數十次到數百次,高峰期有25萬的PV值, 遠遠超過帶寬的最大理論值 22,500 PV。

  2014年 : 寬帶增加到達5G,16次放票,有屏蔽刷票軟件搶票的設計,有效阻擋90%的點擊,但實名制有漏洞,每秒還是有15萬次的瀏覽需求,遠超過37,500 PV的的理論帶寬承載量。

  2015年 : 12306有21次放票,增加帶寬到12G,手機訂票(流量小)分擔25%的12306售票,解決實名制的問題,可以阻擋95% 刷票軟件的點擊量,每秒最大有117,800次的瀏覽請求,此數目字已經很接近理論帶寬承載量117,400 PV值。

  根據上述解析, 2012年 – 2014年春運的網絡帶寬給12306帶來很多問題。根據網民的反應,在2015年12306帶寬在 12G的情況下,雖然稍微有點卡, 但是大致的反應還是不錯的。此輪點與我們的推論是大致符合。

  1. PV值和放票次數是根據互聯網的報導。

  2. 2013年與2014年的PV值有10倍的差異, 2014年多了6次放票時段,票的出售量增加90%。但在 2013年,極有可能是大部分的票量集中在少數時段就放完,減少多次的“秒殺“發生。

  3. 2012和2013年, 12306 沒有屏蔽搶票軟件的設置。在2014年以后,實現了基本的屏蔽功能。 假設此在2014年可以阻擋90%搶票軟件的點擊, 在2015年可以阻擋 95%的點擊。

  4. 在2015年, 假設互聯網的平均PV值的數據量是15K byte, 手機上網的PV值是 1K byte,占有25%的流量。

  5. 帶寬最大理論PV值/秒 : 1G的帶寬是1,000,000,000 bit/second,1 byte = 8 bits.

  2015年平均PV值 =11.5K byte (含手機上網), 2012-2014年的PV值= 15K bytes。

  另外,假設考慮網絡IP協議交換有10%的損耗。

  6. 瀏覽請求最大PV值/秒:假設在每個放票時段,搶票的高峰期是5分鐘(含查詢, 下單,付款等操作),在高峰期5分鐘的下載流量是整個時段下載總量50%;

  再假設有效的瀏覽下載量是5%上傳的請求點擊量,換句話說,有95%的點擊量被屏蔽,可能是阻擋刷票軟件,或是網絡阻塞丟包,或是系統忙碌沒有反應等等。

  (2)服務器集群性能無法伸縮性擴展

  參考互聯網上的資料,12306服務器集群是傳統的三層架構設計,如果不考慮最前端的F5負載均衡服務器,它是由 數百部 Web服務器集群和應用服務器集群構成前端,64部數據庫小型機集群(用于專門實現并行計算每班車次的余票量),和訂單處理服務器集群構成后端。從專業的角度來看,此種框架設計是中規中矩的,國內99%的框架設計師都是如此設計。

  如前述所提,由于Sybase數據庫的原因,此種設計無法做伸縮性的擴展。因此,12306要進一步提高性能就面臨很大的抉擇。在此,先了解服務器集群性能與實際需求之間有多少差距。

  回顧2012年到2015年,12306系統在這3年內有很大的變化。

  1. 2012年春運 :根據互聯網上的信息,2012年 12306設計的售票指標是在100萬張票的銷售,這完全低估了互聯網網民的實際需求,在尖峰日,有上千萬人登陸。網絡帶寬,Web服務器集群,應用服務器集群,余票查詢/計算集群,到訂單處理集群, 這些設備性能完全無法應付高流量高并發的請求。由于極大的低估互聯網的需求,造成12306整個系統不穩定。

  在12306系統,余票查詢/計算子系統是最復雜的, 最耗損服務器CPU資源。在整個客票系統里,有數十條行車路線,有3000多個車次(G,D,K,Z,C,..),5000多個火車站,不同的席次(硬座,硬臥, 軟座, 軟臥, etc),座位等級(商務, 一等, 二等),和車票等級(一般,軍人, 學生,殘障,小孩)等因素,將這些參數換算成數學模型,那可是有數千億條的排列組合。

  2012年的余票計算系統實際處理能力據估計不會超過 300-400 TPS,而有效的余票查詢請求遠遠高于3000 QPS (query per second)。另外,系統每隔10分鐘更新車次的余票,這些余票信息是沒有參考價值,因為在10分鐘里已經售出數十萬張票。如果要滿足余票計算的需求達到至少 3000 TPS, 那么12306 需要再增加6倍的服務器,即將近 400部小型機(原有系統有64部服務器)。

  2. 2013年春運:在2012年6月進行第一步余票查詢/計算改造,使用Pivotal Gemfire改造后的結果是每秒至少支持 10,000 TPS 以上,此數目字已經足夠應付高并發的需求,因此在2013年春運余票查詢順利過關。 由于集群計算能力大增,余票更新縮短到每隔2分鐘提供最及時的信息。

  在余票查詢瓶頸移除后,訂單處理服務器的瓶頸就出現在訂單排隊,網民必須等待數十秒到數十分鐘才會得到訂單的確認。訂單的請求累積高達數千甚至數萬個以上,估計當時訂單處理服務器的處理能力不超過 200-300 TPS。

  3. 2014年:在2013年后,進行“訂單分庫二級查詢”處理,將訂單生成與訂單查詢分開處理。因為訂單查詢的數量遠遠超過訂單生成的數量。因此, 12306將查詢訂單的熱點數據放在Gemfire集群, 將歷史訂單數據放在Hadoop集群。如此設計,不但提高訂單查詢的功能數十倍,而且訂單生成的性能至少也提高5倍以上(使用原有服務器)。

  4. 2015年:進一步使用Gemfire優化整個 12306系統,總共建立5個Gemfire集群。另外建立三個數據中心(高鐵公司, 鐵科院,和阿里云),在阿里云上部署數百個虛擬機(有 Web服務器,應用服務器,和余票查詢服務器集群)分流余票查詢75%的流量,因為余票查詢流量占據12306整體流量的90%。

  平均每次放票量尖峰有效余票

  計算請求(QPS)余票計算能力(TPS)尖峰期訂單

  處理請求(TPS)訂單處理能力(TPS)

  2012415,000> 3000300-400》 1600200

  2013265,000> 3000》 10,000》 1030500

  2014313,000> 3000》 10,000 12001000

  2015268,500> 3000》 10,00010501000

  在12306系統,余票計算的結果是放在“數據緩存應用服務器”,在2012年每隔10分鐘更新每班車次的余票結果。如果新請求與上次更新的時間間隔低于10分鐘,數據緩存系統就直接返回上次計算的結果。而在10分鐘左右再重新計算新的請求。在10分鐘的間隔,服務器集群需要計算3000多個車次的余票結果。自2013年以后,12306系統每隔2分鐘更新車次余票結果。

  使用Gemfire改造后12306的現狀和啟示

  2015年的春運購票期間12306系統的表現是很令人矚目的,它的效果和影響總結如下:

  1. 提供“高并發,低延遲”的解決方案,一勞永逸,不用煩惱后續硬件升級的問題

  2. 通過GemFire多集群技術,實現多重的高可用性,確保高峰壓力下和系統異常的情況下保證業務的持續性。

  3. 構建一個可擴展的云應用平臺架構,靈活和快速熱部署的機制,為未來混合云的部署打基礎。

  4. 余票查詢集群性能提升 :

  使用數十部 x86服務器 (或是上百部虛擬機)可以達到 10,000 TPS以上,提升原來系統性能達30倍以上。原來的系統是使用64部Unix 小型機。

  余票信息更新從原來10分鐘縮短到2分鐘,使信息更有參考價值。

  5. 12306“訂單分庫二級查詢”子系統:

  將訂單生成與訂單查詢分庫處理,訂單查詢性能提高50倍, 訂單生成性能提高4-5倍。

  將熱點訂單放在Gemfire集群,將歷史訂單數據放在Hadoop集群。這是快數據和大數據結合的完美案例。

  6. 混合云的應用:

  使用Gemfire改造后的分布式系統,極易分散部署到不同的數據中心

  例如,余票查詢子系統可以獨立于原來的大系統部署到公有云上,同時也可以再將此子系統一分為二,將另一部分服務器部署在私有云的數據中心。即按業務需求隨時部署所需要的資源,來解決高并發的難題

標簽:衢州 來賓 懷化 遵義 昭通 青島 忻州 湘潭

巨人網絡通訊聲明:本文標題《怎么從技術的角度去分析12306實現高流量高并發的問題》,本文關鍵詞  怎么,從,技術,的,角度,去,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《怎么從技術的角度去分析12306實現高流量高并發的問題》相關的同類信息!
  • 本頁收集關于怎么從技術的角度去分析12306實現高流量高并發的問題的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    精品国产制服丝袜高跟| 欧美女孩性生活视频| 视频一区视频二区中文| 一区二区三区不卡视频| 亚洲美女屁股眼交3| 亚洲欧洲美洲综合色网| 亚洲人精品一区| 亚洲午夜av在线| 美女视频网站久久| 国产美女娇喘av呻吟久久| 国产一区二区在线看| 懂色av一区二区三区免费看| 成人av电影在线网| 色哟哟一区二区在线观看| 色老综合老女人久久久| 在线播放欧美女士性生活| 日韩视频在线你懂得| 久久综合久久综合九色| 国产精品久久久久三级| 一区二区三区成人| 视频一区欧美精品| 久久精品国产99国产精品| 国v精品久久久网| 在线一区二区三区四区五区| 日韩欧美www| 亚洲日本丝袜连裤袜办公室| 蜜臀久久久99精品久久久久久| 国产盗摄女厕一区二区三区| 在线观看日韩一区| 久久精品在线免费观看| 亚洲一区二区三区在线| 国产一区二区三区四区五区入口| 在线欧美小视频| 精品国产sm最大网站免费看| 亚洲在线视频网站| 成人免费视频国产在线观看| 欧美一区二区三区日韩| 中文字幕人成不卡一区| 精品亚洲国产成人av制服丝袜| 不卡欧美aaaaa| 久久只精品国产| 日韩av电影免费观看高清完整版 | 国产麻豆精品在线| 欧美日韩一区二区三区不卡| 国产日本欧洲亚洲| 久草这里只有精品视频| 欧美日韩情趣电影| 一区二区三区欧美日| 成人久久18免费网站麻豆| 日韩欧美一级片| 午夜精品福利一区二区三区蜜桃| 豆国产96在线|亚洲| 日韩欧美亚洲另类制服综合在线| 亚洲国产精品久久久男人的天堂 | 男女男精品视频网| 91国产成人在线| 日韩理论片网站| 99久久99久久综合| 亚洲欧洲99久久| 成人av在线播放网站| 国产无遮挡一区二区三区毛片日本| 免费观看30秒视频久久| 欧美日本韩国一区二区三区视频 | 在线播放欧美女士性生活| 亚洲一二三区不卡| 欧洲另类一二三四区| 一区二区三区小说| 色综合色狠狠天天综合色| 亚洲欧美日韩久久精品| 91丨porny丨户外露出| 亚洲欧美区自拍先锋| 99国产精品久久久| 一区二区三区日韩欧美| 欧美在线观看一二区| 亚洲成av人**亚洲成av**| 欧美乱熟臀69xxxxxx| 污片在线观看一区二区| 日韩欧美中文一区| 极品美女销魂一区二区三区| 久久久久久亚洲综合| 高清视频一区二区| 亚洲色图视频网| 欧美精品免费视频| 久久99精品久久久| 国产精品久久久久久久岛一牛影视| 国产精品亚洲第一区在线暖暖韩国| 久久久久国产精品免费免费搜索| 国产精品影视网| 亚洲精品国久久99热| 7777精品久久久大香线蕉| 久久成人免费电影| 亚洲欧美综合网| 91精品国产91久久久久久最新毛片 | 欧美高清精品3d| 韩国三级中文字幕hd久久精品| 中文字幕精品一区二区精品绿巨人 | 国产精品久久久久婷婷| 欧美日韩在线电影| 国产一区二区在线看| 亚洲女女做受ⅹxx高潮| 欧美大度的电影原声| 91在线视频官网| 免费视频一区二区| 自拍偷拍国产精品| 欧美成人a∨高清免费观看| 99视频精品在线| 久久国产视频网| 亚洲综合免费观看高清完整版| 91精品国产综合久久小美女| 99这里都是精品| 麻豆成人在线观看| 亚洲一区二区三区美女| 国产日韩在线不卡| 5月丁香婷婷综合| 91日韩一区二区三区| 国产原创一区二区| 日韩av电影免费观看高清完整版 | 91.麻豆视频| 91麻豆国产香蕉久久精品| 久草中文综合在线| 午夜精品福利一区二区三区av| 一色屋精品亚洲香蕉网站| 精品久久久久久久久久久久久久久久久 | 国产精品自拍一区| 美女视频黄 久久| 午夜在线电影亚洲一区| 成人欧美一区二区三区1314| 国产欧美一区二区三区在线老狼| 91精品国产综合久久久蜜臀粉嫩| 在线观看日产精品| 色8久久精品久久久久久蜜| 不卡大黄网站免费看| 国产麻豆午夜三级精品| 久久成人18免费观看| 热久久国产精品| 日韩国产欧美在线视频| 亚洲gay无套男同| 五月天丁香久久| 天天综合天天做天天综合| 亚洲成人资源网| 亚洲福利视频一区二区| 亚洲国产成人porn| 亚洲成av人片观看| 蜜桃传媒麻豆第一区在线观看| 日韩电影在线一区二区| 日韩电影在线一区二区| 日韩电影在线一区| 久久精品国产免费看久久精品| 蜜桃视频一区二区| 国产成人精品免费在线| 国产最新精品免费| 国产成人丝袜美腿| 99久久免费视频.com| 色一情一乱一乱一91av| 91黄色免费看| 在线综合视频播放| 欧美电视剧免费全集观看| 2023国产精品自拍| 国产精品午夜电影| 亚洲欧美激情在线| 亚洲3atv精品一区二区三区| 久久99精品网久久| 成人开心网精品视频| 欧洲一区二区三区免费视频| 欧美剧情电影在线观看完整版免费励志电影| 欧美三区在线观看| 欧美变态tickling挠脚心| 中日韩免费视频中文字幕| 亚洲人一二三区| 视频一区免费在线观看| 国产乱码精品一区二区三区av| 成人国产视频在线观看 | 久草中文综合在线| av电影在线观看不卡| 欧美电影一区二区| 中文av一区二区| 日韩专区欧美专区| 成人黄色电影在线| 8v天堂国产在线一区二区| 国产日韩欧美电影| 亚洲bt欧美bt精品| 岛国精品在线观看| 56国语精品自产拍在线观看| 国产精品网站在线播放| 喷水一区二区三区| 不卡电影一区二区三区| 欧美一区2区视频在线观看| 国产精品久久久久久久久晋中 | 国产福利一区二区三区在线视频| 在线欧美一区二区| 日本一区二区三区国色天香| 一区二区三区日韩欧美| 国产suv精品一区二区883| 91精品国产91综合久久蜜臀| 亚洲女女做受ⅹxx高潮| 成人免费黄色在线| 久久久电影一区二区三区| 日本亚洲电影天堂| 欧美性感一类影片在线播放| 国产精品美女久久久久aⅴ国产馆 国产精品美女久久久久av爽李琼 国产精品美女久久久久高潮 |