微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

大三寒假学习 spark学习 spark集群环境搭建

配置环境变量:

  在master节点的终端中执行:vim ~/.bashrc

  添加如下配置:export SPARK_HOME=/opt/module/spark-3.1.2 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

  运行source命令使配置立即生效:source ~/.bashrc

  

配置workers文件

  编辑workers文件将localhost替换为节点主机名,一个主机名占一行

  

 

配置spark-env.sh文件

   添加如下内容

  

  最后一个为master的ip,前两个要替换为你自己的本地路径

分发spark文件到各个节点:

  利用了之前写好的脚本xsync分发,https://www.bilibili.com/video/BV1Qp4y1n7EN?p=28里面有脚本的编写详情

  

  

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐