為什么要使用Python來(lái)寫Spark
Python寫spark我認(rèn)為唯一的理由就是:你要做數(shù)據(jù)挖掘,AI相關(guān)的工作。因?yàn)楹芏嘧鰯?shù)挖的他們的基礎(chǔ)語(yǔ)言都是python,他們?nèi)绻匦聦W(xué)scala比較耗時(shí),而且,python他的強(qiáng)大類庫(kù)是他的優(yōu)勢(shì),很多算法庫(kù)只有python有。
Win本地編寫代碼調(diào)試
編輯器:PyCharm
Spark:1.6
Python:2.7
Win環(huán)境準(zhǔn)備
Python的安裝
解壓python包,在環(huán)境變量里面配上bin的路徑
Spark的安裝
下載spark的bin文件,解壓即可,在環(huán)境變量配置SPARK_HOME
要可以通過(guò)編輯器來(lái)安裝,如pycharm,查找pyspark庫(kù)安裝即可
Hadoop安裝
安裝hadoop環(huán)境。在win下面需要winutils.exe;在環(huán)境里面配置HADOOP_HOME即可。
代碼示例
#-*-coding:utf-8-*-
from__future__importprint_function
frompysparkimport*
importos
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if__name__=='__main__':
sc=SparkContext("local[8]")
rdd=sc.parallelize("helloPysparkworld".split(""))
counts=rdd\
.flatMap(lambdaline:line)\
.map(lambdaword:(word,1))\
.reduceByKey(lambdaa,b:a+b)\
.foreach(print)
sc.stop
問(wèn)題:
frompysparkimport*
找不到pyspark。那你需要把spark的bin包下面的python的所有都拷貝到(可能需要解壓py4j)
%PYTHON%\Lib\site-packages下面去。這樣,你的編輯器才能找到。
或者:
配置你的編輯器的環(huán)境變量:
PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages
使用spark-submit提交時(shí)用到其他類庫(kù)–py-filesxxxx/xxxx.zip,xxxx.py。
以上內(nèi)容為大家介紹了Python培訓(xùn)之怎么用python寫spark,希望對(duì)大家有所幫助,如果想要了解更多Python相關(guān)知識(shí),請(qǐng)關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。