婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > linux環境不使用hadoop安裝單機版spark的方法

linux環境不使用hadoop安裝單機版spark的方法

熱門標簽:高德地圖標注無營業執照 金融行業外呼線路 東莞人工智能電銷機器人供應商 百度地圖標注要不要錢 長沙開福怎么申請400電話 賀州市地圖標注app 江蘇電銷外呼防封系統是什么 廣州電銷機器人系統圖 智能電話機器人線路

大數據持續升溫, 不熟悉幾個大數據組件, 連裝逼的口頭禪都沒有。 最起碼, 你要會說個hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 這些都是裝逼的必備技能。

關于spark的詳細介紹, 網上一大堆, 搜搜便是, 下面, 我們來說單機版的spark的安裝和簡要使用。

0.  安裝jdk,  由于我的機器上之前已經有了jdk, 所以這一步我可以省掉。 jdk已經是很俗氣的老生常談了, 不多說, 用java/scala的時候可少不了。

ubuntu@VM-0-15-ubuntu:~$ java -version
openjdk version "1.8.0_151"
OpenJDK Runtime Environment (build 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12)
OpenJDK 64-Bit Server VM (build 25.151-b12, mixed mode)
ubuntu@VM-0-15-ubuntu:~$ 

1.  你并不一定需要安裝hadoop, 只需要選擇特定的spark版本即可。你并不需要下載scala, 因為spark會默認帶上scala shell. 去spark官網下載, 在沒有hadoop的環境下, 可以選擇:spark-2.2.1-bin-hadoop2.7, 然后解壓, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll
total 196436
drwxrwxr-x 3 ubuntu ubuntu   4096 Feb 2 19:57 ./
drwxrwxr-x 9 ubuntu ubuntu   4096 Feb 2 19:54 ../
drwxrwxr-x 13 ubuntu ubuntu   4096 Feb 2 19:58 spark-2.2.1-bin-hadoop2.7/
-rw-r--r-- 1 ubuntu ubuntu 200934340 Feb 2 19:53 spark-2.2.1-bin-hadoop2.7.tgz

2.  spark中有python和scala版本的, 下面, 我來用scala版本的shell, 如下:

ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
18/02/02 20:12:16 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/02/02 20:12:16 WARN Utils: Your hostname, localhost resolves to a loopback address: 127.0.0.1; using 172.17.0.15 instead (on interface eth0)
18/02/02 20:12:16 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address
Spark context Web UI available at http://172.17.0.15:4040
Spark context available as 'sc' (master = local[*], app id = local-1517573538209).
Spark session available as 'spark'.
Welcome to
   ____       __
   / __/__ ___ _____/ /__
  _\ \/ _ \/ _ `/ __/ '_/
  /___/ .__/\_,_/_/ /_/\_\  version 2.2.1
   /_/
Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_151)
Type in expressions to have them evaluated.
Type :help for more information.
scala> 

來進行簡單操作:

scala> val lines = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24
scala> lines.count()
res0: Long = 103
scala> lines.first()
res1: String = # Apache Spark
scala> :quit
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$  
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md 
103 README.md
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md 
# Apache Spark
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ 

來看看可視化的web頁面, 在Windows上輸入:  http://ip:4040

OK,  本文僅僅是簡單的安裝, 后面我們會繼續深入介紹spark.

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。如果你想了解更多相關內容請查看下面相關鏈接

標簽:洛陽 松原 北京 滄州 廊坊 張家界 永州 玉樹

巨人網絡通訊聲明:本文標題《linux環境不使用hadoop安裝單機版spark的方法》,本文關鍵詞  linux,環境,不,使用,hadoop,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《linux環境不使用hadoop安裝單機版spark的方法》相關的同類信息!
  • 本頁收集關于linux環境不使用hadoop安裝單機版spark的方法的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    亚洲国产精品尤物yw在线观看| 欧美tickle裸体挠脚心vk| 美腿丝袜亚洲三区| 一个色妞综合视频在线观看| 国产精品1区2区3区| 精品国产三级a在线观看| 亚洲成人激情自拍| 91精品黄色片免费大全| 久久er99热精品一区二区| 日韩精品最新网址| 国产v日产∨综合v精品视频| 亚洲国产精品国自产拍av| 国产精品1024| 国产精品久久久久一区二区三区共| 国产成a人无v码亚洲福利| 久久久久久久综合色一本| av亚洲产国偷v产偷v自拍| 一区二区三区四区视频精品免费| 亚洲成av人片在线观看| 欧洲精品在线观看| 国产一区二区0| 亚洲电影激情视频网站| 久久精品免费在线观看| 欧美私模裸体表演在线观看| 国产乱人伦偷精品视频不卡| 午夜亚洲国产au精品一区二区| 欧美一级高清大全免费观看| 成人动漫视频在线| 国产一区999| 国产精品久久久久久久久免费相片| 3d成人动漫网站| 91蜜桃网址入口| 成人av综合在线| 国产福利精品一区二区| 蜜桃在线一区二区三区| 日韩制服丝袜av| 午夜精品久久久久久| 1000精品久久久久久久久| 久久精品在这里| 亚洲精品在线观| 欧美电视剧免费全集观看| 日韩亚洲欧美中文三级| 精品入口麻豆88视频| 欧美中文字幕一二三区视频| 欧美性受极品xxxx喷水| 欧美性做爰猛烈叫床潮| 欧美三级乱人伦电影| 奇米色一区二区| 久久99精品视频| 国产精品77777竹菊影视小说| 韩日av一区二区| 国产v综合v亚洲欧| caoporm超碰国产精品| 91小视频在线免费看| 欧美在线视频不卡| 制服丝袜中文字幕一区| 精品久久久久一区| 中文字幕第一区第二区| 亚洲蜜臀av乱码久久精品蜜桃| 国产精品久久久久久妇女6080 | 日韩福利电影在线| 亚洲3atv精品一区二区三区| 日韩福利视频网| 成人激情午夜影院| 91精品国产丝袜白色高跟鞋| 国产视频911| 视频一区视频二区中文字幕| 精品一区二区在线免费观看| 粉嫩嫩av羞羞动漫久久久| 日本精品免费观看高清观看| 精品国产伦一区二区三区免费| 一区二区三区欧美日| 免费三级欧美电影| 91麻豆福利精品推荐| 久久久久久久久一| 亚洲一区二区在线观看视频| 国产成a人亚洲精品| 国产欧美一区在线| 亚洲国产精品传媒在线观看| 国产一区二区三区精品视频| 日本韩国欧美三级| 亚洲精品视频一区二区| 国产盗摄一区二区三区| 国产午夜精品久久久久久免费视| 天天操天天色综合| 欧美日韩成人激情| 综合欧美一区二区三区| 99麻豆久久久国产精品免费| 欧美精品一区二区精品网| 看电视剧不卡顿的网站| 2019国产精品| 99精品视频一区二区| 亚洲最新视频在线播放| 欧美情侣在线播放| 国内精品嫩模私拍在线| 中文av一区二区| 色999日韩国产欧美一区二区| 亚洲一区二区免费视频| 91丨九色丨尤物| 色综合久久久久久久久久久| 久久蜜臀中文字幕| 国产一区二区三区蝌蚪| 亚洲欧洲无码一区二区三区| 在线免费观看一区| 亚洲成年人网站在线观看| 精品区一区二区| 成人h精品动漫一区二区三区| 一区二区在线观看av| 精品日本一线二线三线不卡| 国产成人a级片| 日韩福利电影在线| 亚洲欧美日韩国产综合| 欧美一级二级在线观看| 日韩av午夜在线观看| 在线看日本不卡| 成人免费视频网站在线观看| 日韩成人精品在线观看| 亚洲卡通欧美制服中文| 国产精品美女久久久久久久久久久| 91精品欧美综合在线观看最新| 色综合久久久久网| 成人免费电影视频| 久久99日本精品| 紧缚捆绑精品一区二区| 日日欢夜夜爽一区| 亚洲免费三区一区二区| 欧美日产国产精品| 99久久99久久综合| 亚洲黄色小视频| 亚洲天堂av一区| 日本成人在线视频网站| 不卡一区二区三区四区| 91免费观看国产| 99久久99久久久精品齐齐| 成人午夜在线视频| 国产999精品久久久久久绿帽| 国产白丝网站精品污在线入口| 大胆亚洲人体视频| 91亚洲大成网污www| 91传媒视频在线播放| 日韩成人伦理电影在线观看| 免费久久99精品国产| 亚洲va欧美va天堂v国产综合| 一区二区三区蜜桃网| 亚洲成a人片在线不卡一二三区| 日韩专区中文字幕一区二区| 91在线视频播放地址| 国产sm精品调教视频网站| 91网上在线视频| www日韩大片| 五月天激情综合网| 在线中文字幕不卡| 欧美极品aⅴ影院| 国产传媒一区在线| 91精品国产综合久久香蕉的特点| 欧美日韩国产一区| 欧美国产1区2区| 免费看黄色91| 欧美日韩激情一区| 亚洲丝袜制服诱惑| 国产mv日韩mv欧美| 欧美成人综合网站| 五月天一区二区| 在线看日本不卡| 午夜精品福利一区二区蜜股av | 日日夜夜精品视频天天综合网| 亚洲一二三四在线观看| 国产精品毛片久久久久久久| 午夜国产精品一区| 在线成人av网站| 国产精品小仙女| 一区二区三区中文在线| 精品国产免费一区二区三区四区 | 国产一区二区三区黄视频 | 亚洲精品日韩专区silk| 国产成人av电影| 欧美午夜理伦三级在线观看| 欧日韩精品视频| 中文字幕va一区二区三区| 国产日韩精品一区二区浪潮av| 色激情天天射综合网| 欧美日韩一区二区欧美激情| 亚洲三级在线免费观看| 精品国产成人在线影院 | 成人理论电影网| 欧美videossexotv100| 亚洲电影第三页| 国产在线观看一区二区| 欧美国产日本视频| 精品一区二区在线视频| 久久综合狠狠综合久久综合88| 亚洲综合色噜噜狠狠| 国产成人亚洲综合a∨猫咪| 久久一区二区三区四区| 极品销魂美女一区二区三区| 欧美不卡一区二区三区| 日韩av在线发布| 国产日韩精品一区二区浪潮av| 色吧成人激情小说| 91精品久久久久久久91蜜桃|