婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > linux環境不使用hadoop安裝單機版spark的方法

linux環境不使用hadoop安裝單機版spark的方法

熱門標簽:高德地圖標注無營業執照 金融行業外呼線路 東莞人工智能電銷機器人供應商 百度地圖標注要不要錢 長沙開福怎么申請400電話 賀州市地圖標注app 江蘇電銷外呼防封系統是什么 廣州電銷機器人系統圖 智能電話機器人線路

大數據持續升溫, 不熟悉幾個大數據組件, 連裝逼的口頭禪都沒有。 最起碼, 你要會說個hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 這些都是裝逼的必備技能。

關于spark的詳細介紹, 網上一大堆, 搜搜便是, 下面, 我們來說單機版的spark的安裝和簡要使用。

0.  安裝jdk,  由于我的機器上之前已經有了jdk, 所以這一步我可以省掉。 jdk已經是很俗氣的老生常談了, 不多說, 用java/scala的時候可少不了。

ubuntu@VM-0-15-ubuntu:~$ java -version
openjdk version "1.8.0_151"
OpenJDK Runtime Environment (build 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12)
OpenJDK 64-Bit Server VM (build 25.151-b12, mixed mode)
ubuntu@VM-0-15-ubuntu:~$ 

1.  你并不一定需要安裝hadoop, 只需要選擇特定的spark版本即可。你并不需要下載scala, 因為spark會默認帶上scala shell. 去spark官網下載, 在沒有hadoop的環境下, 可以選擇:spark-2.2.1-bin-hadoop2.7, 然后解壓, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll
total 196436
drwxrwxr-x 3 ubuntu ubuntu   4096 Feb 2 19:57 ./
drwxrwxr-x 9 ubuntu ubuntu   4096 Feb 2 19:54 ../
drwxrwxr-x 13 ubuntu ubuntu   4096 Feb 2 19:58 spark-2.2.1-bin-hadoop2.7/
-rw-r--r-- 1 ubuntu ubuntu 200934340 Feb 2 19:53 spark-2.2.1-bin-hadoop2.7.tgz

2.  spark中有python和scala版本的, 下面, 我來用scala版本的shell, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
18/02/02 20:12:16 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/02/02 20:12:16 WARN Utils: Your hostname, localhost resolves to a loopback address: 127.0.0.1; using 172.17.0.15 instead (on interface eth0)
18/02/02 20:12:16 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address
Spark context Web UI available at http://172.17.0.15:4040
Spark context available as 'sc' (master = local[*], app id = local-1517573538209).
Spark session available as 'spark'.
Welcome to
   ____       __
   / __/__ ___ _____/ /__
  _\ \/ _ \/ _ `/ __/ '_/
  /___/ .__/\_,_/_/ /_/\_\  version 2.2.1
   /_/
Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_151)
Type in expressions to have them evaluated.
Type :help for more information.
scala> 

來進行簡單操作:

scala> val lines = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24
scala> lines.count()
res0: Long = 103
scala> lines.first()
res1: String = # Apache Spark
scala> :quit
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$  
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md 
103 README.md
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md 
# Apache Spark
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 

來看看可視化的web頁面, 在Windows上輸入:  http://ip:4040

OK,  本文僅僅是簡單的安裝, 后面我們會繼續深入介紹spark.

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。如果你想了解更多相關內容請查看下面相關鏈接

標簽:洛陽 松原 北京 滄州 廊坊 張家界 永州 玉樹

巨人網絡通訊聲明:本文標題《linux環境不使用hadoop安裝單機版spark的方法》,本文關鍵詞  linux,環境,不,使用,hadoop,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《linux環境不使用hadoop安裝單機版spark的方法》相關的同類信息!
  • 本頁收集關于linux環境不使用hadoop安裝單機版spark的方法的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    日本亚洲三级在线| 精品噜噜噜噜久久久久久久久试看| 日韩欧美自拍偷拍| 韩国成人精品a∨在线观看| 日韩免费观看高清完整版在线观看| 久久黄色级2电影| 国产日产欧美一区| 成人一区二区在线观看| 国产精品区一区二区三| 在线观看视频一区二区欧美日韩| 日韩中文欧美在线| 国产精品伦一区| 中文字幕中文字幕一区| 欧美久久久一区| 国产成人亚洲精品狼色在线| 亚洲美女精品一区| 欧美一区二区在线不卡| 99久久综合色| 日韩1区2区3区| 国产在线国偷精品产拍免费yy| 亚洲制服丝袜av| 国产视频亚洲色图| 日韩一区二区在线播放| 精品国产一区a| 在线免费观看一区| 日韩女同互慰一区二区| 欧美极品xxx| 国产亚洲成aⅴ人片在线观看| 国产欧美精品一区二区色综合 | 亚洲人成亚洲人成在线观看图片| 亚洲欧美精品午睡沙发| 三级影片在线观看欧美日韩一区二区| 麻豆国产精品官网| 日产国产高清一区二区三区| 国产精品99久久不卡二区| 亚洲国产综合91精品麻豆| 国产精品嫩草影院com| 一区二区三区四区亚洲| 国产精品久久久久婷婷二区次| 一区二区高清视频在线观看| 国产大片一区二区| 欧美日韩在线一区二区| 欧美中文字幕一区二区三区亚洲| 日韩三级伦理片妻子的秘密按摩| 亚洲三级久久久| 中文字幕在线不卡一区二区三区| 日本一区二区三级电影在线观看| 亚洲v日本v欧美v久久精品| 一区二区三区免费在线观看| 国产成人亚洲综合a∨婷婷图片| 欧美日韩在线播放一区| 亚洲欧美视频在线观看视频| 精一区二区三区| 黑人巨大精品欧美一区| 欧美日韩国产综合一区二区三区 | 欧美日韩国产欧美日美国产精品| 国产片一区二区| 裸体在线国模精品偷拍| 欧美私人免费视频| 制服丝袜亚洲精品中文字幕| 日韩亚洲电影在线| 午夜精品久久久久久久久久久| 日本伊人色综合网| 欧美精品国产精品| 午夜免费欧美电影| 日本电影亚洲天堂一区| 欧美日韩国产美女| 亚洲大型综合色站| 欧美日韩中文国产| 午夜精品久久久久久久久久久 | 丝袜国产日韩另类美女| 色999日韩国产欧美一区二区| 国产精品卡一卡二| 99久久伊人网影院| 国产成人精品影视| 久久久精品2019中文字幕之3| 亚洲天堂av一区| 色综合网站在线| 911精品产国品一二三产区| 香蕉加勒比综合久久| 在线观看日韩精品| 日韩电影在线一区二区三区| 欧美一区二区三区四区久久| 蜜臀久久久久久久| 成人综合日日夜夜| 国产精品美女久久福利网站| 成人国产精品免费观看视频| 日韩一级二级三级| 国产剧情一区在线| 亚洲欧洲性图库| 一本久久精品一区二区| 欧美videos大乳护士334| 国产一区二区三区免费观看| 国产欧美日韩不卡免费| 91女厕偷拍女厕偷拍高清| 欧美久久一区二区| 久久精品国产999大香线蕉| 精品欧美乱码久久久久久1区2区| 国产成人综合在线观看| 中文字幕在线播放不卡一区| 欧美日韩一级大片网址| 国产一区二区三区电影在线观看| 欧美激情中文字幕一区二区| 在线观看亚洲a| 黑人巨大精品欧美黑白配亚洲| 中文字幕一区二区三区乱码在线| 欧美色爱综合网| 韩国午夜理伦三级不卡影院| 国产精品福利影院| 欧美一区二区啪啪| 成人性色生活片| 青青草国产精品97视觉盛宴| 国产精品天干天干在观线| 欧美人妖巨大在线| 91日韩一区二区三区| 美腿丝袜一区二区三区| 亚洲男人电影天堂| 久久伊人蜜桃av一区二区| 亚洲va国产天堂va久久en| 日韩欧美中文字幕公布| 国产一区二区免费视频| 一区二区高清免费观看影视大全| 欧美精品一区二区三区在线播放| 色综合久久久久综合体桃花网| 国产一区二区三区四区五区入口| 亚洲无人区一区| 中文字幕日韩精品一区| 欧美va天堂va视频va在线| 在线观看免费亚洲| 91蜜桃在线免费视频| 国产一区二区三区不卡在线观看| 一区二区激情小说| 国产精品毛片无遮挡高清| 欧美一级xxx| 欧美性一二三区| 色综合久久综合中文综合网| 风间由美性色一区二区三区| 亚洲欧美日韩国产综合在线| 国产亚洲一区字幕| 精品国产精品一区二区夜夜嗨| 欧美人动与zoxxxx乱| 北条麻妃一区二区三区| 国产精品中文有码| 国产在线不卡一卡二卡三卡四卡| 日韩高清国产一区在线| 无吗不卡中文字幕| 日本在线不卡视频| 日韩电影在线免费观看| 免费av成人在线| 激情综合网激情| 国产剧情一区在线| 国产成人av在线影院| 成人一二三区视频| 9久草视频在线视频精品| 972aa.com艺术欧美| 日本精品一区二区三区四区的功能| av影院午夜一区| 色先锋资源久久综合| 色婷婷av一区二区三区大白胸 | 91免费在线播放| 日本高清无吗v一区| 欧美又粗又大又爽| 欧美日韩在线播放一区| 91精品国产综合久久精品性色| 日韩欧美中文字幕公布| 国产亚洲福利社区一区| 亚洲精品自拍动漫在线| 精品99999| 国产精品国产三级国产专播品爱网 | 亚洲日本在线看| 亚洲三级电影全部在线观看高清| 17c精品麻豆一区二区免费| 一区二区三区资源| 青娱乐精品视频| 91在线视频在线| 欧美喷水一区二区| 国产午夜精品福利| 亚洲码国产岛国毛片在线| 午夜精品福利视频网站| 久久av老司机精品网站导航| 高清不卡在线观看| 欧美片在线播放| 中文字幕日韩一区二区| 日韩vs国产vs欧美| av在线播放成人| 精品久久久久av影院| 综合久久国产九一剧情麻豆| 免费观看91视频大全| 成人妖精视频yjsp地址| 欧美一区二区精品久久911| 国产精品久久久久久久久晋中| 国产不卡视频在线观看| 欧美视频在线播放| 91精品国产乱码| 国产精品久久久久久久久动漫| 亚洲va欧美va天堂v国产综合| 国产成人啪午夜精品网站男同| 欧美日韩高清一区| 依依成人综合视频| 国产一区二区美女|