婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Facebook的Hadoop和AvatarNode集群方案簡介

Facebook的Hadoop和AvatarNode集群方案簡介

熱門標簽:廣安電銷外呼系統 百度地圖標注不能編輯 搜地圖標注怎么找店鋪 徐州穩定外呼系統代理商 七臺河商家地圖標注注冊 個人家庭地圖標注教程 威海語音外呼系統廠家 勝威電話外呼系統密碼 百度高德騰訊地圖標注公司

Facebook作為全球知名的社交網站,擁有超過3億的活躍用戶,其中約有3千萬用戶至少每天更新一次自己的狀態;用戶每月總共上傳10億余張照片、1千萬個視頻;以及每周共享10億條內容,包括日志、鏈接、新聞、微博等。因此Facebook需要存儲和處理的數據量是非常巨大的,每天新增加4TB壓縮后的數據,掃描135TB大小的數據,在集群上執行Hive任務超過7500次,每小時需要進行8萬次計算,所以高性能的云平臺對Facebook來說是非常重要的,而Facebook主要將Hadoop平臺用于日志處理、推薦系統和數據倉庫等方面。

Facebook將數據存儲在利用Hadoop/Hive搭建的數據倉庫上,這個數據倉庫擁有4800個內核,具有5.5PB的存儲量,每個節點可存儲12TB大小的數據,同時,它還具有兩層網絡拓撲。Facebook中的MapReduce集群是動態變化的,它基于負載情況和集群節點之間的配置信息可動態移動。

Facebook的數據倉庫架構,在這個架構中,網絡服務器和內部服務生成日志數據,這里Facebook使用開源日志收集系統,它可以將數以百計的日志數據集存儲在NFS服務器上,但大部分日志數據會復制到同一個中心的HDFS實例中,而HDFS存儲的數據都會放到利用Hive構建的數據倉庫中。Hive提供了類SQL的語言來與MapReduce結合,創建并發布多種摘要和報告,以及在它們的基礎上進行歷史分析。Hive上基于瀏覽器的接口允許用戶執行Hive查詢。Oracle和MySQL數據庫用來發布這些摘要,這些數據容量相對較小,但查詢頻率較高并需要實時響應。一些舊的數據需要及時歸檔,并存儲在較便宜的存儲器上。

下面介紹Facebook在AvatarNode和調度策略方面所做的一些工作。AvatarNode主要用于HDFS的恢復和啟動,若HDFS崩潰,原有技術恢復首先需要花10~15分鐘來讀取12GB的文件鏡像并寫回,還要用20~30分鐘處理來自2000個DataNode的數據塊報告,最后用40~60分鐘來恢復崩潰的NameNode和部署軟件。表3-1說明了BackupNode和AvatarNode的區別,AvatarNode作為普通的NameNode啟動,處理所有來自DataNode的消息。AvatarDataNode與DataNode相似,支持多線程和針對多個主節點的多隊列,但無法區分原始和備份。人工恢復使用AvatarShell命令行工具,AvatarShell執行恢復操作并更新ZooKeeper的zNode,恢復過程對用戶來說是透明的。分布式Avatar文件系統實現在現有文件系統的上層。

基于位置的調度策略在實際應用中存在著一些問題:如需要高內存的任務可能會被分配給擁有低內存的TaskTracker;CPU資源有時未被充分利用;為不同硬件的TaskTracker進行配置也比較困難等。Facebook采用基于資源的調度策略,即公平享有調度方法,實時監測系統并收集CPU和內存的使用情況,調度器會分析實時的內存消耗情況,然后在任務之間公平分配任務的內存使用量。它通過讀取/proc/目錄解析進程樹,并收集進程樹上所有的CPU和內存的使用信息,然后通過TaskCounters在心跳(heartbeat)時發送信息。

Facebook的數據倉庫使用Hive,這里HDFS支持三種文件格式:文本文件(TextFile),方便其他應用程序讀寫;順序文件(SequenceFile),只有Hadoop能夠讀取并支持分塊壓縮;RCFile,使用順序文件基于塊的存儲方式,每個塊按列存儲,這樣有較好的壓縮率和查詢性能。Facebook未來會在Hive上進行改進,以支持索引、視圖、子查詢等新功能。

現在Facebook使用Hadoop遇到的挑戰有:

服務質量和隔離性方面,較大的任務會影響集群性能;

安全性方面,如果軟件漏洞導致NameNode事務日志崩潰該如何處理;

數據歸檔方面,如何選擇歸檔數據,以及數據如何歸檔;

性能提升方面,如何有效地解決瓶頸等。


解決Namenode頑疾

Google在2004年創造了MapReduce,MapReduce系統獲得成功的原因之一是它為編寫需要大規模并行處理的代碼提供了簡單的編程模式。MapReduce集群可包括數以千計的并行操作的計算機。同時MapReduce允許程序員在如此龐大的集群中快速的轉換數據并執行數據。它受到了Lisp的函數編程特性和其他函數式語言的啟發。MapReduce和云計算非常相配。MapReduce的關鍵特點是它能夠對開發人員隱藏操作并行語義 — 并行編程的具體工作方式。

HDFS(Hadoop Distributed Filesystem)是專為MapReduce框架而下大規模分布式數據處理而設計的,HDFS可將大數據集(TB級)存儲為單個文件,而大多文件系統并不具備這樣的能力。(編者注:NTFS5 Max Files on Volume:264 bytes (16 ExaBytes) minus 1KB,1EB = 1,000,000 TB)。這也是HDFS風靡全球的重要原因。

目前Facebook Hadoop集群內的HDFS物理磁盤空間承載超過100PB的數據(分布在不同數據中心的100多個集群)。由于HDFS存儲著Hadoop應用需要處理的數據,因此優化HDFS成為Facebook為用戶提供高效、可靠服務至關重要的因素。

HDFS Namenode是如何工作的?

HDFS客戶端通過被稱之為Namenode單服務器節點執行文件系統原數據操作,同時DataNode會與其他DataNode進行通信并復制數據塊以實現冗余,這樣單一的DataNode損壞不會導致集群的數據丟失。

但NameNode出現故障的損失確是無法容忍的。NameNode主要職責是跟蹤文件如何被分割成文件塊、文件塊又被哪些節點存儲,以及分布式文件系統的整體運行狀態是否正常等。但如果NameNode節點停止運行的話將會導致數據節點無法通信,客戶端無法讀取和寫入數據到HDFS,實際上這也將導致整個系統停止工作。

The HDFS Namenode is a single point of failure (SPOF)

Facebook也深知“Namenode-as-SPOF”所帶來問題的嚴重性,所以Facebook希望建立一套系統已破除“Namenode-as-SPOF”帶來的隱患。但在了解這套系統之前,首先來看一下Facebook在使用和部署HDFS都遇到了哪些問題。

Facebook數據倉庫的使用情況

在Facebook的數據倉庫中部署著最大的HDFS集群,數據倉庫的使用情況是傳統的Hadoop MapReduce工作負載——在大型集群中一小部分運行MapReduce批處理作業

因為集群非常龐大,客戶端和眾多DataNode節點與NameNode節點傳輸海量的原數據,這導致NameNode的負載非常沉重。而來自CPU、內存、磁盤和網絡帶來的壓力也使得數據倉庫集群中NameNode高負載狀況屢見不鮮。在使用過程中Facebook發現其數據倉庫中由于HDFS引發的故障占總故障率的41%。

HDFS NameNode是HDFS中的重要組成部分,同時也是整個數據倉庫中的重要組成部分。雖然高可用的NameNode只可以預防數據倉庫10%的計劃外停機,不過消除NameNode對于SPOF來說可謂是重大的勝利,因為這使得Facebook可執行預訂的硬件和軟件回復。事實上,Facebook預計如果解決NameNode可消除集群50%的計劃停機時間。

那么高可用性NameNode是什么樣子的?它將如何工作?讓我們來看一下高度可用性NameNode的圖表。

在此結構中,客戶端可與Primary NameNode與Standby NameNode通信,同樣眾多DataNode

也具備給Primary NameNode與Standby NameNode發送block reports的能力。實質上Facebook所研發的AvatarNode就是具備高可用NameNode的解決方案。

Avatarnode:具備NameNode故障轉移的解決方案

為了解決單NameNode節點的設計缺陷,大約在兩年前Facebook開始在內部使用AvatarNode工作。

同時AvatarNode提供了高可用性的NameNode以及熱故障切換和回滾功能,目前Facebook已經將AvatarNode貢獻到了開源社區。經過無數次的測試和Bug修復,AvatarNode目前已在Facebook最大的Hadoop數據倉庫中穩定運行。在這里很大程度上要感謝Facebook的工程師Dmytro Molkov。

當發生故障時,AvatarNode的兩個高可用NameNode節點可手動故障轉移。AvatarNode將現有的NameNode代碼打包并放置在Zookeeper層。

AvatarNode的基本概念如下:

1.具備Primary NameNode與Standby NameNode

2.當前Master主機名保存在ZooKeeper之中

3.改進的DataNode發送block reports到Primary NameNode與Standby NameNode

4.改進的HDFS客戶端將在每個事物開始之前對Zookeeper進行檢查,如果失敗會轉移到另外的事務之中。同時如果AvatarNode故障轉移出現在寫入的過程中,AvatarNode的機制將允許保證完整的數據寫入。

Avatarnode客戶端

Avatarnode DataNode

或許有人會Facebook這一解決方案的名字感到好奇,這是因為Facebook的Hadoop工程師Dhruba Borthakur來到公司時正好是James Cameron《阿凡達》電影熱映時間。(我們應該感到慶幸,如果是1998年的話或許應該叫TitanicNode了)。

AvatarNode經受住了Facebook內部最苛刻的工作環境,未來Facebook將繼續大幅度改善AvatarNode的可靠性和HDFS集群的管理性。并整合與一般高可用性框架的整合,還將實現無人值守、自動化與安全故障轉移等特性。

Facebook已將自身使用的Hadoop與AvatarNode解決方案托管到GitHub。感興趣的朋友可下載研究。

當然不止Facebook在試圖解決Hadoop的缺陷,MapR和Cloudera的產品也具備相似的能力。

標簽:吳忠 臨沂 昭通 云浮 婁底 三明 滁州 威海

巨人網絡通訊聲明:本文標題《Facebook的Hadoop和AvatarNode集群方案簡介》,本文關鍵詞  Facebook,的,Hadoop,和,AvatarNode,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Facebook的Hadoop和AvatarNode集群方案簡介》相關的同類信息!
  • 本頁收集關于Facebook的Hadoop和AvatarNode集群方案簡介的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    久久久三级国产网站| 中文字幕一区av| 男男gaygay亚洲| 欧美激情一区二区三区全黄| 欧美日韩在线播放三区| 国产91丝袜在线播放0| 日韩精品电影在线观看| 亚洲免费观看高清| 综合网在线视频| 国产69精品久久久久777| 日本免费在线视频不卡一不卡二| 亚洲免费av在线| 国产精品情趣视频| 国产日韩欧美精品综合| 精品福利一二区| 日韩一区二区精品在线观看| 欧美无乱码久久久免费午夜一区 | 亚洲综合精品自拍| 国产精品久久久久精k8| 国产欧美一二三区| 中文字幕高清一区| 国产午夜亚洲精品不卡| 欧美激情综合五月色丁香| 亚洲国产精品v| 欧美国产精品一区| 中文字幕久久午夜不卡| 国产精品第一页第二页第三页| 欧美激情一区二区在线| 国产精品视频你懂的| 国产精品久久精品日日| 亚洲精品视频在线| 亚洲综合激情网| 蜜桃传媒麻豆第一区在线观看| 日韩1区2区日韩1区2区| 精品一区二区精品| 亚洲国产视频一区| 婷婷综合五月天| 国产免费久久精品| 日韩av网站免费在线| 色8久久精品久久久久久蜜| 91丝袜美腿高跟国产极品老师 | 在线成人免费视频| 国产精品卡一卡二| 国产高清亚洲一区| 日韩 欧美一区二区三区| 国产伦精品一区二区三区免费迷| 成人国产精品免费观看| 国产精品电影院| 高清成人免费视频| 欧美精品一区二区三区高清aⅴ| 亚洲观看高清完整版在线观看| 亚洲欧美日韩在线| 国产一区二区免费在线| 欧美日韩情趣电影| 亚洲精品国产成人久久av盗摄| 成人国产视频在线观看| 日韩一二在线观看| 一级特黄大欧美久久久| 国产精品1024| 三级不卡在线观看| 亚洲一二三级电影| 久久精品国产99国产精品| 国产成人午夜99999| 欧美三级韩国三级日本三斤| 26uuu亚洲婷婷狠狠天堂| 亚洲男人天堂一区| 国产麻豆一精品一av一免费| 欧美日韩精品一区二区三区蜜桃| av午夜精品一区二区三区| 97久久超碰国产精品| 91精品欧美综合在线观看最新| 欧美国产国产综合| 久久99深爱久久99精品| 欧美中文一区二区三区| 国产精品免费看片| 国产成人午夜片在线观看高清观看| 欧美日本不卡视频| 一区二区三区日韩欧美精品| 懂色中文一区二区在线播放| 日韩一区二区在线看片| 亚洲小少妇裸体bbw| 色猫猫国产区一区二在线视频| 国产日韩高清在线| 韩国视频一区二区| 91精品在线免费观看| 亚洲成人资源网| 色婷婷综合五月| 亚洲天天做日日做天天谢日日欢| 国产suv精品一区二区三区| 精品毛片乱码1区2区3区| 五月激情六月综合| 欧美日韩亚洲高清一区二区| 亚洲精品成a人| 在线观看一区不卡| 亚洲在线免费播放| 欧美视频三区在线播放| 亚洲国产aⅴ成人精品无吗| 欧美午夜精品一区二区三区| 一区二区免费看| 色噜噜狠狠色综合中国| 亚洲国产视频网站| 91精品国产一区二区三区蜜臀 | 国产99一区视频免费| 久久久久久久综合| 成人福利视频网站| 亚洲三级在线免费观看| 色婷婷综合激情| 天堂影院一区二区| 亚洲色图视频网| 亚洲日穴在线视频| 欧美人与z0zoxxxx视频| heyzo一本久久综合| 亚洲一二三区在线观看| 欧美日韩激情一区二区| 蜜臀国产一区二区三区在线播放| 欧美一区二区三区免费大片| 国产精品99久| 99这里只有久久精品视频| 91精品福利在线一区二区三区| 国产精品久久久久久久久久免费看 | 久久久www成人免费毛片麻豆| 亚洲成人黄色小说| 欧美在线免费观看亚洲| 亚洲永久精品大片| 欧美日韩在线观看一区二区| 午夜电影网一区| 欧美一区二区三区的| 激情欧美一区二区| 国产精品久久久久久久久搜平片 | 国产福利视频一区二区三区| 久久综合网色—综合色88| 狂野欧美性猛交blacked| 精品福利在线导航| 男人的天堂久久精品| 日韩精品专区在线影院重磅| 国产老妇另类xxxxx| 蜜臀av性久久久久蜜臀aⅴ四虎| 亚洲综合丁香婷婷六月香| 精品国产欧美一区二区| 8v天堂国产在线一区二区| 91精品国产综合久久精品麻豆| 日韩欧美久久一区| 欧美日韩国产成人在线免费| 亚洲欧美国产三级| 国产一区二区h| 日韩一区二区在线观看视频| 性久久久久久久久| 久久久美女毛片| 91美女视频网站| 图片区小说区区亚洲影院| 日本高清不卡在线观看| 精油按摩中文字幕久久| 欧美一区二区三区免费观看视频| 中文字幕欧美国产| 久久影院视频免费| 国产精品 日产精品 欧美精品| 一区在线观看免费| 欧美精品一区二区三区蜜臀| 色噜噜偷拍精品综合在线| 精品一区二区三区久久久| 亚洲丝袜精品丝袜在线| 久久人人97超碰com| 日韩视频免费观看高清在线视频| www.av精品| 国产电影一区二区三区| 奇米精品一区二区三区在线观看一| 国产精品视频线看| 7777精品伊人久久久大香线蕉| 91亚洲午夜精品久久久久久| 国产乱妇无码大片在线观看| 丝袜美腿亚洲一区二区图片| 亚洲在线视频免费观看| 一区二区免费看| 亚洲男同1069视频| 一区二区三区日本| 亚洲日本乱码在线观看| 综合久久综合久久| 亚洲欧洲日韩在线| 国产精品久久99| 国产精品狼人久久影院观看方式| 国产拍揄自揄精品视频麻豆| 久久免费电影网| 国产欧美精品国产国产专区 | 国产精品天天摸av网| 国产亚洲欧美色| 亚洲欧洲日韩综合一区二区| 久久精品男人天堂av| 国产亚洲欧美日韩日本| 中文文精品字幕一区二区| 2020国产精品自拍| 欧美大肚乱孕交hd孕妇| 日韩情涩欧美日韩视频| 精品国产在天天线2019| 国产午夜亚洲精品理论片色戒 | 久久久精品天堂| 国产精品美女www爽爽爽| 日韩一区欧美一区| 亚洲欧美aⅴ...| 日韩电影一区二区三区四区| 欧美a级理论片|