- 由于之前已经做了伪分布式配置,在做完全分布式配置之前,需要首先删除master主机hadoop安装路径下的tmp和logs文件夹中的文件:
- 重新配置core-site.xml和hdfs-site.xml,以及mapred-site.xml和yarn-site.xml。
(1)首先编辑core-site.xml
(2)然后编辑hdfs-site.xml
(3)编辑mapred-site.xml
(4)编辑yarn-site.xml
- 修改slaves文件
- 压缩hadoop安装文件夹,然后分发到slave主机:
- 在slave节点以root账户登录,在各个slave节点解压:
- 在master节点格式化namenode,只执行一次,以后启动Hadoop时不需要再次格式化。
注意:重复格式化会造成namenode和datanode的clusterID不一致,出现此种情况,需要删除各个节点hadoop下的tmp文件夹和logs文件夹的内容,然后,重新格式化namenode。 - 格式化完成后,启动Hadoop和Yarn。
- 通过jps命令查看各个节点的进程:
如果有个别进程没有启动,可以单独启动,例如通过hdfs --daemon start datanode启动数据节点。 - 在master节点通过hdfs dfsadmin –report命令可以查看集群状态,其中,Live datanodes (4)表明集群启动成功。
- 还可以通过web界面查看集群状态,在linux浏览器输入http://master:9870/
- 最后,关闭Hadoop集群,在master节点执行如下命令:
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。