亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Linux下搭建Spark 的 Python 編程環境的方法

系統 1581 0

Spark編程環境

Spark 可以獨立安裝使用,也可以和Hadoop 一起安裝使用。在安裝 Spark 之前,首先確保你的電腦上已經安裝了 Java 8 或者更高的版本。

Spark 安裝

訪問 Spark 下載頁面 ,并選擇最新版本的 Spark 直接下載,當前的最新版本是 2.4.2 。下載好之后需要解壓縮到安裝文件夾中,看自己的喜好,我們是安裝到了 /opt 目錄下。

            
tar -xzf spark-2.4.2-bin-hadoop2.7.tgz
mv spark-2.4.2-bin-hadoop2.7/opt/spark-2.4.2
          

為了能在終端中直接打開 Spark 的 shell 環境,需要配置相應的環境變量。這里我由于使用的是 zsh,所以需要配置環境到 ~/.zshrc 中。

沒有安裝 zsh 的可以配置到 ~/.bashrc 中

            
# 編輯 zshrc 文件
sudo gedit ~/.zshrc
# 增加以下內容:export SPARK_HOME=/opt/spark-2.4.2export PATH=$SPARK_HOME/bin:$PATH
export 
            
              Python
            
            PATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
          

配置完成后,在 shell 中輸入 spark-shell 或者 pyspark 就可以進入到 Spark 的交互式編程環境中,前者是進入 Scala 交互式環境,后者是進入 Python 交互式環境。

配置 Python 編程環境

在這里介紹兩種編程環境, Jupyter 和 Visual Studio Code。前者方便進行交互式編程,后者方便最終的集成式開發。

PySpark in Jupyter

首先介紹如何在 Jupyter 中使用 Spark,注意這里 Jupyter notebook 和 Jupyter lab 是通用的方式,此處以 Jupyter lab 中的配置為例:

在 Jupyter lab 中使用 PySpark 存在兩種方法:

pyspark 將自動打開一個 Jupyter lab;
findSpark 包來加載 PySpark。

第一個選項更快,但特定于Jupyter筆記本,第二個選項是一個更廣泛的方法,使PySpark在你任意喜歡的IDE中都可用,強烈推薦第二種方法。

方法一:配置 PySpark 啟動器

更新 PySpark 啟動器的環境變量,繼續在 ~/.zshrc 文件中增加以下內容:

            
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='lab'
          

如果要使用 jupyter notebook,則將第二個參數的值改為 notebook

刷新環境變量或者重啟機器,并執行 pyspark 命令,將直接打開一個啟動了 Spark 的 Jupyter lab。

pyspark

?

方法二:使用 findSpark 包

在 Jupyter lab 中使用 PySpark 還有另一種更通用的方法:使用 findspark 包在代碼中提供 Spark 上下文環境。

findspark 包不是特定于 Jupyter lab 的,您也可以其它的 IDE 中使用該方法,因此這種方法更通用,也更推薦該方法。

首先安裝 findspark:

pip install findspark

之后打開一個 Jupyter lab,我們在進行 Spark 編程時,需要先導入 findspark 包,示例如下:

            
# 導入 findspark 并初始化import findspark
findspark.init()from pyspark importSparkConf,SparkContextimport random
# 配置 Spark
conf =SparkConf().setMaster("local[*]").setAppName("Pi")# 利用上下文啟動 Spark
sc =SparkContext(conf=conf)
num_samples =100000000definside(p):   
  x, y = random.random(), random.random()return x*x + y*y <1
count = sc.parallelize(range(0, num_samples)).filter(inside).count()
pi =4* count / num_samples
print(pi)
sc.stop()
          

運行示例:

Linux下搭建Spark 的 Python 編程環境的方法_第1張圖片 ?

PySpark in VScode

Visual Studio Code 作為一個優秀的編輯器,對于 Python 開發十分便利。這里首先推薦個人常用的一些插件:

Python:必裝的插件,提供了Python語言支持;

Code Runner:支持運行文件中的某些片段;

此外,在 VScode 上使用 Spark 就不需要使用 findspark 包了,可以直接進行編程:

            
from pyspark importSparkContext,SparkConf
conf =SparkConf().setMaster("local[*]").setAppName("test")
sc =SparkContext(conf=conf)
logFile ="file:///opt/spark-2.4.2/README.md"
logData = sc.textFile(logFile,2).cache()
numAs = logData.filter(lambda line:'a'in line).count()
numBs = logData.filter(lambda line:'b'in line).count()print("Lines with a: {0}, Lines with b:{1
          

總結

以上所述是小編給大家介紹的Linux下搭建Spark 的 Python 編程環境的方法,希望對大家有所幫助,如果大家有任何疑問歡迎給我留言,小編會及時回復大家的!


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 中文字幕在线观看一区 | 一区二三区国产 | 狠狠色丁香久久婷婷综合_中 | 免费国产阿v视频在线观看 免费国产不卡午夜福在线 免费国产不卡午夜福在线观看 | 国产精品二区页在线播放 | 青青青国产免费全部免费观看 | 欧美日韩免费在线视频 | 国产精品一区二区久久精品涩爱 | 最新69成人精品毛片 | 色综合久久天天综合绕观看 | 国产精品福利在线观看 | 四虎影院www | 色综网| 99久久精品国产高清一区二区 | 久久成人小视频 | 真实国产乱子伦精品免费 | 国产精品亚洲玖玖玖在线靠爱 | 奇米影视一区二区三区 | 久久精品高清 | 久久久久久一级毛片免费无遮挡 | 日韩在线a视频免费播放 | 国内精品自在自线在免费 | 亚洲一区视频 | 欧美毛片免费看 | 日韩亚洲欧美在线观看 | 免费一级大毛片a一观看不卡 | 交专区videossex另类 | 性孕妇video国产中国 | 亚洲精品福利在线 | 国内自拍小视频 | 亚洲精品一区二区三区在线看 | 亚洲欧美日韩中文在线 | 国产亚洲精品久久精品6 | 久久精品二区 | www.久久色| 鲁啊鲁啊鲁在线视频播放 | 亚洲视频在线免费 | 日本xoxo在线观看免费 | 色哦色哦哦色天天综合 | 9re视频这里只有精品 | 一区二区三区欧美日韩国产 |