微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

07 Hadoop集群搭建

Hadoop集群 具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起。

  • HDFS集群:负责海量数据的存储,集群中的角色主要有 NameNode / Datanode

  • YARN集群:负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager

那mapreduce是什么呢?它其实是一个应用程序开发包。

本集群搭建案例,以5节点为例进行搭建,角色分配如下:

在这里插入图片描述

部署图如下:

在这里插入图片描述

下面开始讲Hadoop的集群环境搭建:

1.服务器准备

本案例使用虚拟机服务器来搭建Hadoop集群,所用软件及版本:

  • Vmware 11.0
  • Centos 6.5 64bit

2.网络环境准备

采用NAT方式联网

网关地址:192.168.33.1

3个服务器节点IP地址:192.168.33.101、192.168.33.102、192.168.33.103

子网掩码:255.255.255.0

3.服务器系统设置

1.添加Hadoop用户

2.为Hadoop用户分配sudoer权限

3.同步时间

4.设置主机名

  • hdp-node-01
  • hdp-node-02
  • hdp-node-03

5.配置内网域名映射:

  • 192.168.33.101 hdp-node-01
  • 192.168.33.102 hdp-node-02
  • 192.168.33.103 hdp-node-03

6.配置ssh免密登陆

7.配置防火墙

4. jdk环境安装

1.上传jdk安装包

2.规划安装目录 /home/Hadoop/apps/jdk_1.7.65

3.解压安装包

4.配置环境变量 /etc/profile

5.Hadoop安装部署

1.上传Hadoop安装包

2.规划安装目录 /home/Hadoop/apps/Hadoop-2.6.1

3.解压安装包

4.修改配置文件$Hadoop_HOME/etc/Hadoop/

最简化配置如下:
vi Hadoop-env.sh

# The java implementation to use.
export JAVA_HOME=/home/Hadoop/apps/jdk1.7.0_51

vi core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp-node-01:9000</value>
</property>
<property>
<name>Hadoop.tmp.dir</name>
<value>/home/Hadoop/apps/Hadoop-2.6.1/tmp</value>
</property>
</configuration>

vi hdfs-site.xml

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/Hadoop/data/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/Hadoop/data/data</value>
</property>

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.secondary.http.address</name>
<value>hdp-node-01:50090</value>
</property>
</configuration>

vi mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

vi yarn-site.xml

<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>Hadoop01</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

vi salves

hdp-node-01
hdp-node-02
hdp-node-03

6.启动集群

初始化HDFS

bin/Hadoop  namenode  -format

启动HDFS

sbin/start-dfs.sh

启动YARN

sbin/start-yarn.sh

7.测试

1.上传文件到HDFS
从本地上传一个文本文件到hdfs的/wordcount/input目录下。

[Hadoop@hdp-node-01 ~]$ Hadoop fs -mkdir -p /wordcount/input
[Hadoop@hdp-node-01 ~]$ Hadoop fs -put /home/Hadoop/somewords.txt  /wordcount/input

2.运行一个mapreduce程序
在Hadoop安装目录下,运行一个示例mr程序

cd $Hadoop_HOME/share/Hadoop/mapreduce/
Hadoop jar mapredcue-example-2.6.1.jar wordcount /wordcount/input  /wordcount/output 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐