婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Spark在Windows下的環境搭建方法

Spark在Windows下的環境搭建方法

熱門標簽:無錫電銷機器人銷售 招聘信息 南召400電話辦理資費 去哪里辦卡 揭陽外呼系統公司 熱血傳奇沃瑪森林地圖標注 地圖標注審核工作怎么樣注冊 福建ai電銷機器人加盟公司 地圖標注植物名稱 鄭州中國移動400電話申請

本文主要是講解Spark在Windows環境是如何搭建的

一、JDK的安裝

1、1 下載JDK

首先需要安裝JDK,并且將環境變量配置好,如果已經安裝了的老司機可以忽略。JDK(全稱是JavaTM Platform Standard Edition Development Kit)的安裝,去Oracle官網下載,下載地址是Java SE Downloads。

上圖中兩個用紅色標記的地方都是可以點擊的,點擊進去之后可以看到這個最新版本的一些更為詳細的信息,如下圖所示:

下載完之后,我們安裝就可以直接JDK,JDK在windows下的安裝非常簡單,按照正常的軟件安裝思路去雙擊下載得到的exe文件,然后設定你自己的安裝目錄(這個安裝目錄在設置環境變量的時候需要用到)即可。

1、2 JDK環境變量設置

接下來設置相應的環境變量,設置方法為:在桌面右擊【計算機】--【屬性】--【高級系統設置】,然后在系統屬性里選擇【高級】--【環境變量】,然后在系統變量中找到“Path”變量,并選擇“編輯”按鈕后出來一個對話框,可以在里面添加上一步中所安裝的JDK目錄下的bin文件夾路徑名,我這里的bin文件夾路徑名是:C:\Program Files\Java\jre1.8.0_92\bin,所以將這個添加到path路徑名下,注意用英文的分號“;”進行分割。如圖所示:

這樣設置好后,便可以在任意目錄下打開的cmd命令行窗口下運行下面命令。查看是否設置成功。

java -version

觀察是否能夠輸出相關java的版本信息,如果能夠輸出,說明JDK安裝這一步便全部結束了。如圖所示:

二、Scala的安裝

我們從官網:http://www.scala-lang.org/下載Scala,最新的版本為2.12.3,如圖所示

因為我們是在Windows環境下,這也是本文的目的,我們選擇對應的Windows版本下載,如圖所示:

下載得到Scala的msi文件后,可以雙擊執行安裝。安裝成功后,默認會將Scala的bin目錄添加到PATH系統變量中去(如果沒有,和上面JDK安裝步驟中類似,將Scala安裝目錄下的bin目錄路徑,添加到系統變量PATH中),為了驗證是否安裝成功,開啟一個新的cmd窗口,輸入scala然后回車,如果能夠正常進入到Scala的交互命令環境則表明安裝成功。如下圖所示:

備注:如果不能顯示版本信息,并且未能進入Scala的交互命令行,通常有兩種可能性:
1、Path系統變量中未能正確添加Scala安裝目錄下的bin文件夾路徑名,按照JDK安裝中介紹的方法添加即可。
2、Scala未能夠正確安裝,重復上面的步驟即可。

三、Spark的安裝

我們到Spark官網進行下載:http://spark.apache.org/,我們選擇帶有Hadoop版本的Spark,如圖所示:

下載后得到了大約200M的文件: spark-2.2.0-bin-hadoop2.7

這里使用的是Pre-built的版本,意思就是已經編譯了好了,下載來直接用就好,Spark也有源碼可以下載,但是得自己去手動編譯之后才能使用。下載完成后將文件進行解壓(可能需要解壓兩次),最好解壓到一個盤的根目錄下,并重命名為Spark,簡單不易出錯。并且需要注意的是,在Spark的文件目錄路徑名中,不要出現空格,類似于“Program Files”這樣的文件夾名是不被允許的。我們在C盤新建一個Spark文件夾存放,如圖所示:

解壓后基本上就差不多可以到cmd命令行下運行了。但這個時候每次運行spark-shell(spark的命令行交互窗口)的時候,都需要先cd到Spark的安裝目錄下,比較麻煩,因此可以將Spark的bin目錄添加到系統變量PATH中。例如我這里的Spark的bin目錄路徑為D:\Spark\bin,那么就把這個路徑名添加到系統變量的PATH中即可,方法和JDK安裝過程中的環境變量設置一致,設置完系統變量后,在任意目錄下的cmd命令行中,直接執行spark-shell命令,即可開啟Spark的交互式命令行模式。

系統變量設置后,就可以在任意當前目錄下的cmd中運行spark-shell,但這個時候很有可能會碰到各種錯誤,這里主要是因為Spark是基于hadoop的,所以這里也有必要配置一個Hadoop的運行環境。錯誤如圖所示:

接下來,我們還需要安裝Hadoop。

四、Hadoop的安裝

在Hadoop Releases里可以看到Hadoop的各個歷史版本,這里由于下載的Spark是基于Hadoop 2.7的(在Spark安裝的第一個步驟中,我們選擇的是Pre-built for Hadoop 2.7),我這里選擇2.7.1版本,選擇好相應版本并點擊后,進入詳細的下載頁面,如下圖所示:

選擇圖中紅色標記進行下載,這里上面的src版本就是源碼,需要對Hadoop進行更改或者想自己進行編譯的可以下載對應src文件,我這里下載的就是已經編譯好的版本,即圖中的“hadoop-2.7.1.tar.gz”文件。

下載并解壓到指定目錄,,我這里是C:\Hadoop,如圖所示:

然后到環境變量部分設置HADOOP_HOME為Hadoop的解壓目錄,如圖所示:

然后再設置該目錄下的bin目錄到系統變量的PATH下,我這里也就是C:\Hadoop\bin,如果已經添加了HADOOP_HOME系統變量,也可用%HADOOP_HOME%\bin來指定bin文件夾路徑名。這兩個系統變量設置好后,開啟一個新的cmd窗口,然后直接輸入spark-shell命令。如圖所示:

正常情況下是可以運行成功并進入到Spark的命令行環境下的,但是對于有些用戶可能會遇到空指針的錯誤。這個時候,主要是因為Hadoop的bin目錄下沒有winutils.exe文件的原因造成的。這里的解決辦法是:

可以去https://github.com/steveloughran/winutils選擇你安裝的Hadoop版本號,然后進入到bin目錄下,找到winutils.exe文件,下載方法是點擊winutils.exe文件,進入之后在頁面的右上方部分有一個Download按鈕,點擊下載即可。 如圖所示:

下載winutils.exe文件

將下載好winutils.exe后,將這個文件放入到Hadoop的bin目錄下,我這里是C:\Hadoop\hadoop-2.7.1\bin。

 

在打開的cmd中輸入

復制代碼 代碼如下:
C:\Hadoop\hadoop-2.7.1\bin\winutils.exe chmod 777 /tmp/Hive //修改權限,777是獲取所有權限

但是我們發現報了一些其他的錯(Linux環境下也是會出現這個錯誤)

console>:14: error: not found: value spark
    import spark.implicits._
        ^
 console>:14: error: not found: value spark
    import spark.sql

其原因是沒有權限在spark中寫入metastore_db 這個文件。

處理方法:我們授予777的權限

Linux環境,我們在root下操作:

sudo chmod 777 /home/hadoop/spark
 
 #為了方便,可以給所有的權限
 sudo chmod a+w /home/hadoop/spark

window環境下:

存放Spark的文件夾不能設為只讀和隱藏,如圖所示:

授予完全控制的權限,如圖所示:

經過這幾個步驟之后,然后再次開啟一個新的cmd窗口,如果正常的話,應該就可以通過直接輸入spark-shell來運行Spark了。正常的運行界面應該如下圖所示:

六、Python下Spark開發環境搭建

下面簡單講解Python下怎么搭建Spark環境

1、將spark目錄下的pyspark文件夾(C:\Spark\python\pyspark)復制到python安裝目錄C:\Python\Python35\Lib\site-packages里。如圖所示

spark的pysaprk

將pyspark拷貝至Python的安裝的packages目錄下。


2、然后使用cd命令,進入目錄D:\python27\Scripts,運行pip install py4j安裝py4j庫。如圖所示:

如果需要在python中或者在類似于IDEA IntelliJ或者PyCharm(筆者用的就是PyCharm)等IDE中使用PySpark的話,需要在系統變量中新建一個PYTHONPATH的系統變量,然后設置好下面變量值就可以了

PATHONPATH=%SPARK_HOME%\python;%SPARK_HOME%\python\lib\py4j-0.10.4-src.zip

后面的事情就交給PyCharm了。

至此,Spark在Windows環境下的搭建講解已結束。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • Spark在Win10下的環境搭建過程
  • windows下pycharm搭建spark環境并成功運行 附源碼
  • PyCharm搭建Spark開發環境的實現步驟
  • Python搭建Spark分布式集群環境
  • PyCharm搭建Spark開發環境實現第一個pyspark程序
  • Linux下搭建Spark 的 Python 編程環境的方法
  • 使用docker快速搭建Spark集群的方法教程
  • Spark集群框架的搭建與入門

標簽:宣城 南昌 桂林 文山 東莞 景德鎮 黔南 鹽城

巨人網絡通訊聲明:本文標題《Spark在Windows下的環境搭建方法》,本文關鍵詞  Spark,在,Windows,下,的,環境,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Spark在Windows下的環境搭建方法》相關的同類信息!
  • 本頁收集關于Spark在Windows下的環境搭建方法的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    久久精品免费在线观看| 久久成人羞羞网站| 日韩福利视频网| 欧美久久一二区| 天堂va蜜桃一区二区三区 | 色屁屁一区二区| 亚洲乱码精品一二三四区日韩在线| 丁香六月综合激情| 亚洲视频在线观看一区| 色婷婷亚洲精品| 日本午夜精品一区二区三区电影| 日韩西西人体444www| 国产69精品久久777的优势| 日本一区二区不卡视频| 一本大道av一区二区在线播放| 一区二区三区在线免费视频| 欧美日韩性生活| 日韩成人伦理电影在线观看| 欧美丝袜第三区| 另类小说色综合网站| 久久久综合激的五月天| 91丨九色丨尤物| 日本视频一区二区三区| 国产精品美女久久久久久| 欧美综合在线视频| 激情综合网av| 亚洲综合视频在线观看| 久久综合九色综合97_久久久| 92精品国产成人观看免费| 秋霞成人午夜伦在线观看| 欧美激情一区二区三区蜜桃视频| 欧美天堂一区二区三区| 福利一区福利二区| 亚洲aaa精品| 中文字幕一区二区5566日韩| 日韩美女视频在线| 欧美中文字幕一区| 国产一区二区三区在线观看精品| 一片黄亚洲嫩模| 国产色91在线| 欧美一级国产精品| 日韩午夜在线播放| 91亚洲精品久久久蜜桃网站| 国产成人精品网址| 青娱乐精品在线视频| 亚洲欧美日韩在线不卡| 久久综合九色综合97婷婷| 欧美影院精品一区| 99久久精品久久久久久清纯| 美腿丝袜亚洲一区| 天堂久久久久va久久久久| 一区二区三区精品在线观看| 中文字幕一区二区三| 久久精品人人做人人爽人人| 日韩区在线观看| 欧美丰满少妇xxxxx高潮对白| 欧美日韩国产另类不卡| 97久久超碰国产精品| 波多野结衣中文字幕一区 | 亚洲国产精品ⅴa在线观看| 欧美一区二区三区在线电影 | 中国av一区二区三区| 26uuu亚洲综合色欧美| 日韩免费观看高清完整版| 91精品欧美一区二区三区综合在| 欧美日韩一区二区三区四区五区| 欧美视频第二页| 欧美日韩国产首页| 91精品中文字幕一区二区三区| 欧美一区二区三区四区视频| 欧美一区二区三区不卡| 精品区一区二区| 久久久99精品免费观看| 国产精品嫩草影院av蜜臀| 亚洲特级片在线| 亚洲一卡二卡三卡四卡五卡| 天天综合天天做天天综合| 麻豆精品一区二区| 国产高清视频一区| 99久久精品国产导航| 成人aaaa免费全部观看| 欧美中文字幕一二三区视频| 欧美一区中文字幕| 国产亚洲午夜高清国产拍精品| 国产精品久久777777| 亚洲国产精品视频| 蜜桃传媒麻豆第一区在线观看| 国产成人综合亚洲网站| 欧美在线不卡一区| 欧美在线视频全部完| 日韩免费观看高清完整版在线观看| 欧美成人video| 综合久久久久久| 日韩精品亚洲专区| 成人久久久精品乱码一区二区三区| 91免费视频网| 精品久久久久久无| 亚洲精品视频在线| 国产一区二区成人久久免费影院| 色综合视频一区二区三区高清| 91精品在线一区二区| 亚洲色图另类专区| 秋霞成人午夜伦在线观看| 国产成人免费网站| 91精品国产91久久久久久最新毛片 | 91网上在线视频| 欧美日韩国产另类一区| 国产精品久久久久久久久免费樱桃 | 日本午夜精品一区二区三区电影 | 久久福利视频一区二区| 不卡大黄网站免费看| 欧美一级淫片007| 亚洲同性gay激情无套| 国产综合色在线视频区| 色美美综合视频| 26uuu色噜噜精品一区| 亚洲精选免费视频| 国产精品亚洲专一区二区三区| 日本电影欧美片| 欧美国产一区二区在线观看| 久久er精品视频| 欧美中文一区二区三区| 欧美激情艳妇裸体舞| 精一区二区三区| 一本色道a无线码一区v| 欧美美女黄视频| 亚洲人成精品久久久久| 国产伦精品一区二区三区视频青涩| 色系网站成人免费| 亚洲视频 欧洲视频| 97超碰欧美中文字幕| 欧美国产日产图区| 成人黄色电影在线 | 日韩精品电影在线| 欧美视频精品在线观看| 中文字幕在线一区二区三区| jizz一区二区| 亚洲欧美综合网| 成人综合在线观看| 精品久久五月天| 毛片av中文字幕一区二区| 5858s免费视频成人| 亚洲福利一区二区三区| 国产精品传媒视频| 91精品国产品国语在线不卡| 欧美国产激情二区三区| 久久国产夜色精品鲁鲁99| 精品国产乱码久久久久久1区2区| 国产一区二区伦理片| 国产精品嫩草影院com| 国产suv精品一区二区883| 国产视频一区不卡| 色av一区二区| 日日摸夜夜添夜夜添亚洲女人| 欧美一区二区三区免费视频 | 亚瑟在线精品视频| 制服丝袜中文字幕一区| 美女脱光内衣内裤视频久久网站 | 欧美一区二区三区免费观看视频 | 精品日韩在线观看| 成人网页在线观看| 亚洲乱码国产乱码精品精的特点| 色综合网色综合| 亚洲视频网在线直播| 欧美图区在线视频| 国产一区在线观看麻豆| 中文字幕一区二区三区精华液| 一本大道av一区二区在线播放| 亚洲三级理论片| 69成人精品免费视频| 成人久久久精品乱码一区二区三区| 午夜精品久久久久久久99水蜜桃 | 欧美放荡的少妇| 国产成人日日夜夜| 丝袜a∨在线一区二区三区不卡| 亚洲精品在线网站| 欧美日韩视频在线第一区| 国产精品456| 日韩黄色免费电影| 欧美丰满嫩嫩电影| 亚洲精品视频在线观看网站| 精品国精品国产| 91电影在线观看| 国产1区2区3区精品美女| 免费成人在线观看| 亚洲一区二区综合| 国产精品久久午夜夜伦鲁鲁| 日韩欧美亚洲另类制服综合在线| 色欧美片视频在线观看在线视频| 国内精品久久久久影院色| 亚洲美女一区二区三区| 久久夜色精品一区| 日韩欧美在线123| 欧美三级电影在线看| 一本久久综合亚洲鲁鲁五月天| 成人短视频下载| 狠狠色丁香婷婷综合| 美脚の诱脚舐め脚责91| 视频一区中文字幕国产| 一级特黄大欧美久久久|