婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Hadoop分布式集群的搭建的方法步驟

Hadoop分布式集群的搭建的方法步驟

熱門標簽:揭陽外呼系統公司 南召400電話辦理資費 福建ai電銷機器人加盟公司 去哪里辦卡 無錫電銷機器人銷售 招聘信息 熱血傳奇沃瑪森林地圖標注 鄭州中國移動400電話申請 地圖標注審核工作怎么樣注冊 地圖標注植物名稱

1 安裝說明

1.1 用到的軟件

軟件 版本 下載地址
linux Ubuntu Server 18.04.2 LTS https://ubuntu.com/download/server
hadoop hadoop-2.7.1 http://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
java jdk-8u211-linux-x64 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

1.2 節點安排

名稱 ip hostname
主節點 192.168.233.200 Master
子節點1 192.168.233.201 Slave01
子節點2 192.168.233.202 Slave02

2 創建hadoop用戶

所有的節點均創建一個名為hadoop的用戶,并添加管理員權限。

注意:這里這是單純為了方便管理,創建的用戶名,也可以使用其他用戶名,或者使用系統之前的用戶,主要有管理員權限即可

$ sudo useradd -m hadoop -s /bin/bash #創建用戶
$ sudo passwd hadoop #修改密碼
$ sudo adduser hadoop sudo #添加管理員權限

3 配置網絡環境

3.1 修改主機名

修改 /etc/hostname文件,每個節點都要修改。

  • 主節點修改為:Master
  • 從節點分別修改為:Slave01,Slave02,...

注意:如果是ubuntu18.04桌面版直接修改/etc/hostname文件即可,ubuntu18.04服務器版還需要修改/etc/cloud/cloud.cfg文件,修改如下:

# This will cause the set+update hostname module to not operate (if true)
preserve_hostname: true #這里是將false改成true

3.2 添加IP與主機名的映射關系

在/etc/hosts文件里添加如下內容(每個節點都要修改,根據實際情況修改ip)

192.168.233.200 Master
192.168.233.201 Slave01
192.168.233.202 Slave02

檢查各個節點是否能相互ping通。

3.3 設置SSH無密碼登錄節點

讓Master能夠通過SSH無密碼登錄各個Slave節點

如果修改過主機名,需要重新生成的新的公鑰。

在Master上執行如下命令:

$ cd ~/.ssh       # 如果沒有該目錄,先執行一次ssh localhost
$ rm ./id_rsa*      # 刪除之前生成的公匙(如果已經存在)
$ ssh-keygen -t rsa    # 執行該命令后,遇到提示信息,一直按回車就可以
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

接著將Master中的id_rsa.pub文件復制到各個Slave節點中

$ scp ~/.ssh/id_rsa.pub hadoop@Slave01:/home/hadoop/
$ scp ~/.ssh/id_rsa.pub hadoop@Slave02:/home/hadoop/

在各個Slave節點中執行如下命令:

$ mkdir ~/.ssh    # 如果不存在該文件夾需先創建
$ cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
$ rm ~/id_rsa.pub  # 用完以后就可以刪掉

在Master中驗證是否可以無密碼登錄,各個Slave節點。

如:

$ ssh Slave01 #如果成功登錄,則配置完成
$ ssh Slave02 #如果成功登錄,則配置完成

4 安裝java環境

每個節點都要安裝,步驟相同

為了方便操作每個節點,默認在/usr/local/下新建一個名為bigdata的文件夾,存放所有的大數據相關的軟件。

$ sudo mkdir /usr/local/bigdata
$ sudo chown -R hadoop:hadoop /usr/local/bigdata/

4.1 解壓

$ sudo mkdir /usr/local/bigdata/java
$ sudo tar -zxvf jdk-8u211-linux-x64.tar.gz -C /usr/local/bigdata/java/

4.2 添加環境變量

在~/.bashrc文件中添加如下內容,并執行$ source ~/.bashrc命令使其生效

#java
export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

5 解壓hadoop

下載hadoop-2.7.1.tar.gz文件,并解壓到/usr/local/bigdata/文件夾下

$ sudo tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/bigdata

6 修改hadoop配置文件

需要修改6個文件,文件位于/usr/local/bigdata/hadoop-2.7.1/etc/hadoop/下

6.1 slave 文件

將文件中原來的 localhost 刪除,添加內容:

Slave01
Slave02

6.2 core-site.xml 文件

內容修改為:

configuration>
    !-- 指定HADOOP所使用的文件系統schema(URI)-->
    property>
        name>fs.defaultFS/name>
        value>hdfs://Master:9000/value>
    /property>

     !-- 指定hadoop運行時產生文件的存儲目錄 -->
    property>
        name>hadoop.tmp.dir/name>
        value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/value>
        description>Abase for other temporary directories./description>
    /property>
/configuration>

6.3 hdfs-site.xml文件

Hadoop的分布式文件系統HDFS一般采用冗余存儲,一份文件通常保存3份副本,所以dfs.replication的值還是設置為3。
具體內容如下:

configuration>
    property>
        !-- 指定SecondaryNamenode所在地址 -->
        name>dfs.namenode.secondary.http-address/name>
        value>Master:50090/value>
    /property>
    property>
        name>dfs.replication/name>
        value>3/value>
    /property>
    property>
        name>dfs.namenode.name.dir/name>
        value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/name/value>
    /property>
    property>
        name>dfs.datanode.data.dir/name>
        value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/data/value>
    /property>
/configuration>

6.4 mapred-site.xml 文件

修改內容如下:

configuration>
    property>
        name>mapreduce.framework.name/name>
        value>yarn/value>
    /property>
    property>
        name>mapreduce.jobhistory.address/name>
        value>Master:10020/value>
    /property>
    property>
        name>mapreduce.jobhistory.webapp.address/name>
        value>Master:19888/value>
    /property>
/configuration>

6.5 yarn-site.xml文件

內容如下:

configuration>
    property>
        name>yarn.resourcemanager.hostname/name>
        value>Master/value>
    /property>
    property>
        name>yarn.nodemanager.aux-services/name>
        value>mapreduce_shuffle/value>
    /property>
/configuration>

6.6 hadoop-env.sh 文件

修改如下內容:

export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211

# 可以不用
export HADOOP_HOME=/usr/local/hadoop-2.7.1

7 設置hadoop環境變量

每個節點都要設置

在~/.bashrc文件中添加如下內容,并$ source ~/.bashrc使其生效

export PATH=$PATH:/usr/local/bigdata/hadoop-2.7.1/bin:/usr/local/bigdata/hadoop-2.7.1/sbin

8 slave節點配置

slave節點只需將master節點上/usr/local/下的bigdata文件夾和~/.bashrc文件,放到slave節點即可

注意切換到對應機器執行$ source ~/.bashrc使環境變量生效。

后續的軟件均可使用此方式配置。

在master節點:

$ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/tmp   # 刪除 Hadoop 臨時文件,如果之前有啟動過
$ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/logs/*  # 刪除日志文件,如果之前有啟動過
$ tar -zcvf ~/bigdata.tar.gz /usr/local/bigdata/ # 先壓縮再復制
$ scp ~/bigdata.tar.gz Slave01:/home/hadoop
$ scp ~/bigdata.tar.gz Slave02:/home/hadoop
$ scp ~/bashrc Slave01:/home/hadoop
$ scp ~/bashrc Slave02:/home/hadoop

在各個slave節點上

$ sudo mkdir /usr/local/bigdata
$ sudo chown -R hadoop:hadoop /usr/local/bigdata
$ tar -zxvf ~/bigdata.tar.gz -C /usr/local/bigdata
$ sudo source ~/.bashrc

9 啟動Hadoop集群

在Master上執行

首次運行需要,執行

$ hdfs namenode -format

格式化名稱節點,然后就可以啟動hadoop了。

啟動hadoop:

$ start-dfs.sh
$ start-yarn.sh
$ mr-jobhistory-daemon.sh start historyserver

使用jps查看啟動的各個節點,缺少任何進程,都表示出錯。

$ jps
3585 JobHistoryServer
2938 NameNode
3148 SecondaryNameNode
3308 ResourceManager
3629 Jps

瀏覽器查看:http://192.168.233.200:50070/

查看相關信息:$ hdfs dfsadmin -report

關閉hadoop:

$ stop-yarn.sh
$ stop-dfs.sh
$ mr-jobhistory-daemon.sh stop historyserver

如果有問題,重復如下命令:

$ stop-dfs.sh  # 關閉
$ rm -r /usr/local/bigdata/hadoop-2.7.1/tmp   # 刪除 tmp 文件,注意這會刪除 HDFS中原有的所有數據
$ hdfs namenode -format  # 重新格式化名稱節點
$ start-dfs.sh # 重啟

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 手把手教你在騰訊云上搭建hadoop3.x偽集群的方法
  • 基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解
  • ubuntu docker搭建Hadoop集群環境的方法
  • docker 搭建hadoop以及hbase集群詳解
  • 詳解搭建ubuntu版hadoop集群
  • 詳解從 0 開始使用 Docker 快速搭建 Hadoop 集群環境
  • 詳解使用docker搭建hadoop分布式集群
  • Hadoop3.2.0集群搭建常見注意事項

標簽:宣城 文山 鹽城 黔南 東莞 景德鎮 南昌 桂林

巨人網絡通訊聲明:本文標題《Hadoop分布式集群的搭建的方法步驟》,本文關鍵詞  Hadoop,分布式,集群,的,搭建,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Hadoop分布式集群的搭建的方法步驟》相關的同類信息!
  • 本頁收集關于Hadoop分布式集群的搭建的方法步驟的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    日韩精品一区二区三区在线观看| 国产一区二区在线电影| 久久久亚洲午夜电影| 日韩一区二区三区四区| 欧美人体做爰大胆视频| 欧美高清精品3d| 91精品在线观看入口| 欧美一区二区三区四区在线观看| 91麻豆精品国产无毒不卡在线观看| 911国产精品| 精品国产一区二区三区久久久蜜月 | 91在线免费播放| 91色.com| 欧美一区二区三区人| 欧美videos大乳护士334| 日韩丝袜情趣美女图片| 精品日韩在线一区| 中文字幕一区二区三区在线不卡| 中文一区一区三区高中清不卡| 国产精品网曝门| 亚洲你懂的在线视频| 亚洲一区二区影院| 久久国产视频网| 91尤物视频在线观看| 欧美日韩在线播放一区| 精品国产伦一区二区三区观看方式| 精品国产乱码久久久久久闺蜜 | 欧美日韩精品专区| 日韩免费一区二区| 亚洲欧美中日韩| 蜜臀久久99精品久久久久宅男| 成人自拍视频在线观看| 欧美午夜精品久久久| 久久人人爽爽爽人久久久| 玉米视频成人免费看| 国模一区二区三区白浆| av激情亚洲男人天堂| 日韩女优制服丝袜电影| 亚洲欧美韩国综合色| 久久国产乱子精品免费女| 色综合久久综合网| 精品国产免费久久| 亚洲国产精品影院| 成人的网站免费观看| 日韩欧美国产精品| 一区二区三区丝袜| 丁香另类激情小说| 欧美精品一区二区三区蜜臀 | 日韩欧美一区二区三区在线| 国产精品免费视频一区| 久久99精品视频| 精品视频999| 亚洲精品亚洲人成人网| 丁香婷婷综合激情五月色| 日韩欧美国产三级电影视频| 香蕉加勒比综合久久| 91在线无精精品入口| 国产欧美精品一区aⅴ影院| 日韩电影免费在线| 精品视频一区三区九区| 亚洲精品国产一区二区精华液| 国产一区视频在线看| 日韩欧美一区二区三区在线| 亚洲v日本v欧美v久久精品| 色悠悠久久综合| 亚洲欧美色一区| 91在线你懂得| 亚洲精品日产精品乱码不卡| www.亚洲国产| 亚洲欧洲成人精品av97| 成人视屏免费看| 中文字幕日本不卡| 成av人片一区二区| 国产精品久久免费看| 成人丝袜高跟foot| 最好看的中文字幕久久| 成人性生交大合| 亚洲精品高清在线| 欧美色窝79yyyycom| 亚洲一区av在线| 色噜噜偷拍精品综合在线| 亚洲免费观看高清完整版在线观看熊| 成人av集中营| 亚洲国产一区二区在线播放| 欧美日韩精品电影| 日韩在线一二三区| 欧美成人欧美edvon| 国产乱人伦偷精品视频不卡| 国产色产综合产在线视频| 成人一级片在线观看| 亚洲欧美激情一区二区| 欧美人体做爰大胆视频| 看国产成人h片视频| 中文字幕精品在线不卡| 色婷婷激情一区二区三区| 丝袜美腿一区二区三区| 亚洲精品在线电影| 色天使久久综合网天天| 亚洲bdsm女犯bdsm网站| 久久久久久亚洲综合| 99国产精品久久| 视频一区二区三区中文字幕| 久久婷婷久久一区二区三区| 9l国产精品久久久久麻豆| 日韩主播视频在线| 国产精品久久二区二区| 欧美日韩国产色站一区二区三区| 精彩视频一区二区三区| 亚洲色图丝袜美腿| 欧美一级一级性生活免费录像| 成人精品电影在线观看| 香蕉久久一区二区不卡无毒影院| 国产日韩欧美亚洲| 欧美精品在线视频| 波波电影院一区二区三区| 三级不卡在线观看| 亚洲视频1区2区| www精品美女久久久tv| 欧美综合天天夜夜久久| 国产v综合v亚洲欧| 天天综合网天天综合色| 国产精品成人免费精品自在线观看| 在线不卡免费欧美| 日本乱码高清不卡字幕| 高清不卡一区二区| 久久国产精品99久久久久久老狼| 亚洲一区在线观看视频| 中文字幕精品—区二区四季| 日韩视频免费观看高清完整版在线观看 | 成人精品视频.| 狠狠色狠狠色综合日日91app| 一区二区国产盗摄色噜噜| 国产偷国产偷亚洲高清人白洁| 8x8x8国产精品| 色先锋aa成人| 99综合电影在线视频| 国产成人在线电影| 老司机精品视频在线| 偷拍日韩校园综合在线| 亚洲国产精品久久人人爱| 亚洲女厕所小便bbb| 亚洲欧洲中文日韩久久av乱码| 中文字幕 久热精品 视频在线| 日韩一区二区高清| 欧美日韩视频一区二区| 欧美亚洲一区二区在线| 色欧美片视频在线观看在线视频| 99国产精品久久久| 色婷婷亚洲婷婷| 欧美日韩精品一区视频| 欧美精品一级二级三级| 欧美一级专区免费大片| 欧美成人精品二区三区99精品| 欧美一级电影网站| 久久婷婷成人综合色| 久久精品人人做人人爽人人| 国产亚洲成年网址在线观看| 国产精品理论片在线观看| 最新国产成人在线观看| 亚洲精品国产精品乱码不99| 亚洲成人一区在线| 九九九久久久精品| 成人性生交大片免费看在线播放| av一区二区三区四区| 91老师片黄在线观看| 欧美中文字幕不卡| 日韩一区二区三区四区| 国产视频一区二区三区在线观看 | 在线观看视频欧美| 在线不卡欧美精品一区二区三区| 日韩美女在线视频| 国产日韩欧美亚洲| 亚洲一区二区高清| 韩国毛片一区二区三区| 成人免费视频网站在线观看| 色婷婷av一区二区| 精品国产乱码久久久久久夜甘婷婷| 久久精品水蜜桃av综合天堂| 亚洲欧美偷拍卡通变态| 久久99精品久久久| 91色|porny| 精品国产乱码久久久久久久| 17c精品麻豆一区二区免费| 午夜精品一区二区三区电影天堂| 精品一区二区三区视频在线观看| 不卡一区二区三区四区| 日韩小视频在线观看专区| 亚洲欧美日韩久久| 捆绑调教美女网站视频一区| 色综合网站在线| 久久亚洲影视婷婷| 亚洲综合自拍偷拍| 国产夫妻精品视频| 538prom精品视频线放| 中文字幕va一区二区三区| 热久久国产精品| 日本高清无吗v一区| 国产精品免费视频网站| 久久国产乱子精品免费女| 欧美日韩一区二区欧美激情|