微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

【hadoop】启动集群

一、启动方式

要启动Hadoop集群,需要启动HDFS和YARN两个集群。
注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作,因为此时的HDFS在物理上还是不存在的。
在node1上执行格式化指令

hadoop namenode -format

二、单节点逐个启动

在node1主机上使用以下命令启动HDFS NameNode:

hadoop-daemon.sh start namenode

在node2主机上使用以下命令启动secondarynamenode:

hadoop-daemon.sh start secondarynamenode

在node1、node2、node3三台主机上,分别使用以下命令启动HDFS Datanode:

hadoop-daemon.sh start datanode

在node1主机上使用以下命令启动YARN ResourceManager:

yarn-daemon.sh  start resourcemanager

在node1、node2、node3三台主机上使用以下命令启动YARN nodemanager:

yarn-daemon.sh start nodemanager

以上脚本位于/export/server/hadoop-2.7.5/sbin目录下。如果想要停止某个节点上某个角色,只需要把命令中的start改为stop即可。

三、脚本一键启动——分模块启动(推荐)

启动HDFS

start-dfs.sh

启动Yarn

start-yarn.sh

启动历史任务服务进程

mr-jobhistory-daemon.sh start historyserver

启动之后,使用jps命令查看相关服务是否启动,jps是显示Java相关的进程命令。
node1:

在这里插入图片描述

四、遇到的问题

1.问题描述

hadoop启动start-all.sh出错
(master: ssh: connect to host master port 22: Connection refused)

2.原因

不能访问node01、02和03
因为hosts文件中映射未设置对

3.解决

修改hosts文件

在这里插入图片描述

改成虚拟机的静态地址:

在这里插入图片描述

修改后,重新启动集群,jps查看进程:

在这里插入图片描述

启动成功!

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐