微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Spark集群环境部署

Spark集群环境部署

 集群概况:采用3台机器作为实例来演示如何搭建Spark集群:其中1台机器作为Master节点,另外两台作为Slave节点
 准备工作:Spark程序包和Hadoop集群环境
 安装sqark
 配置环境变量
 Spark配置
 启动、关闭Spark集群

一、 Spark集群环境部署
1、Spark安装包下载地址:http://spark.apache.org/doenloads.html

在这里插入图片描述


2、准备工作:Spark程序包

在这里插入图片描述


3、配置环境变量
(1)对配置文件.bash_profile进行修改,在文件末尾添加以下内容

在这里插入图片描述


并使新配置的环境变量立即生效

在这里插入图片描述


(2)配置spark文件

在这里插入图片描述


在这里插入图片描述


(3)配置slaves文件

在这里插入图片描述


在这里插入图片描述


4、将Master主机上的/home/admin/spark文件夹复制到各个节点上在Master主机上分别执行如下命令

在这里插入图片描述


在这里插入图片描述


二、启动spark集群
1、启动Hadoop集群

在这里插入图片描述


在这里插入图片描述


2、启动Master节点

在这里插入图片描述


3、启动所有Slave节点

在这里插入图片描述


4、通过访问地址http://192.168.10.111:8080来查看spark独立集群管理器的集群信息

在这里插入图片描述


5、启动spark-shell

在这里插入图片描述


三、关闭spark集群
分别关闭Master节点、Worker节点和Hadoop集群

在这里插入图片描述


在这里插入图片描述


四、编写Spark应用程序
1、编写hello.txt文件上传到hdfs集群

在这里插入图片描述


在这里插入图片描述


输入以下指令,运行一个WordCount词频统计

在这里插入图片描述


如有想法,欢迎评论

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐