微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

2020寒假学习4

Intellij IDEA使用Maven搭建spark开发环境(1)

 

(接https://www.cnblogs.com/janeszj/p/12230833.html)

 

下载Spark(官网下载只能下载比较新的版本,老版本资源没有找到,我下载的是)

 

 

 

复制到虚拟机中

 

 

 

 

把spark-2.4.4-bin-hadoop2.7压缩包拷贝到/usr/local/spark中

 

创建spark文件

 

mkdir -p /usr/local/spark

 

 

 

移至压缩包所在目录拷贝其到指定位置

 

cp -r spark-2.4.4-bin-hadoop2.7.tgz /usr/local/spark

 

 

 

移至到spark目录下解压

 

tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz

 

 

 

修改配置文件

 

 

 

配置文件位于/usr/local/spark/spark-2.4.4-bin-hadoop2.7/conf目录下。

 

 

 

将spark-env.sh.template重命名为spark-env.sh。

 

mv spark-env.sh.template spark-env.sh
添加如下内容

 

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_241

 

export SCALA_HOME=/usr/local/share/scala-2.12.10

 

export HADOOP_HOME=/usr/local/hadoop

 

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

 

SPARK_MASTER_IP=ltt1.bg.cn

 

SPARK_MASTER_PORT=7077

 

SPARK_MASTER_WEBUI_PORT=8080

 

SPARK_WORKER_CORES=1

 

SPARK_WORKER_MEMORY=1g

 

SPARK_WORKER_PORT=7078

 

SPARK_WORKER_WEBUI_PORT=8081

 

SPARK_WORKER_INSTANCES=1

 

 

 

将slaves.template重命名为slaves

 

 

 配置环境变量

 

回到根目录cd ~

 

设置环境变量vim .bash_profile

 

export SPARK_HOME=/usr/local/spark/spark-2.4.4-bin-hadoop2.7

 

export PATH=PATH:SPARK_HOME/bin

 

 

 

修改一下vim /etc/profile

 

export SPARK_HOME=/usr/local/spark/spark-2.4.4-bin-hadoop2.7

 

export PATH=PATH:SPARK_HOME/bin

 

两处环境变量可能是有重复(差别参考:https://www.cnblogs.com/bandiao/p/10805749.html)

 

 

 

先启动hadoop然后启动spark

 

cd $HADOOP_HOME

 

./sbin/start-dfs.sh

 

进入spark目录

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐