Spark HA的部署过程以及测试结果
简单易懂,手把手带小白用VMware虚拟机安装Linux centos7系统
Hadoop集群搭建及配置〇 —— Hadoop组件获取 & 传输文件
Hadoop集群搭建及配置⑤ —— Zookeeper 讲解及安装
Hadoop集群搭建及配置⑥ —— Hadoop组件安装及配置
Hadoop集群搭建及配置⑦—— Spark&Scala安装配置
1. 查看zookeeper 的zoo.cfg文件
2. 配置spark-env.sh 文件(三个节点)
vi spark-env.sh
注释掉masterIP,添加:
export SPARK_MASTER_PORT=7077
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER
-Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181
-Dspark.deploy.zookeeper.dir=/usr/spark/spark-2.4.0-bin-hadoop2.7"
保存退出后,在salve1的spark目录:
cd /usr/spark/spark-2.4.0-bin-hadoop2.7/下,
启动:sbin/start-master.sh
3. 单点故障操作
可以看到slave1:8080状态 Status:STANDBY。
在master节点停止掉spark,可以看到,slave1:8080的状态变为ALIVE,表示解决了单点故障问题。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。