以下操作在 Hadoop(1):Centos 7 安装 Hadoop 3.2.1 基础上操作。
一、配置集群
1、配置 HDFS
a)、配置 hadoop-end.sh
# cd /opt/module/hadoop-3.2.1/
将 hadoop-env.sh 中的 JAVA_HOME 的值修改为当前JDK的安装目录
# echo $JAVA_HOME
修改 hadoop-env.sh
# vim etc/hadoop/hadoop-env.sh
修改 JAVA_HOME 路径
export JAVA_HOME=/opt/module/jdk1.8.0_171
b)、配置 core-site.xml
# vim etc/hadoop/core-site.xml
<!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.56.200:9000</value> </property> <!-- 指定Hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-3.2.1/data/tmp</value> </property>
c)、配置 hdfs-site.xml
# vim etc/hadoop/hdfs-site.xml
<!-- 指定HDFS副本的数量 --> <property> <name>dfs.replication</name> <value>1</value> </property>
2、配置YARN
a)、配置 yarn-site.xml
查看hadoop classpath
# hadoop classpath
将回显的内容记录下来
<!-- Reducer获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 指定YARN的ResourceManager的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>192.168.56.200</value> </property <!-- value值 输入刚才返回的Hadoop classpath路径--> <property> <name>yarn.application.classpath</name> <value>/opt/module/hadoop-3.2.1/etc/hadoop:/opt/module/hadoop-3.2.1/share/hadoop/common/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/common/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn:/opt/module/hadoop-3.2.1/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn/*</value> </property>
3、配置 MapReduce
a)、配置:mapred-site.xml
<!-- 指定MR运行在YARN上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
二、启动集群
格式化NameNode(第一次启动时格式化,以后就不要总格式化)
# bin/hdfs namenode -format
启动NameNode
# sbin/hadoop-daemon.sh start namenode
启动Datanode
# sbin/hadoop-daemon.sh start datanode
查看是否启动成功
# jps
web端查看HDFS文件系统
浏览器访问: http://192.168.56.200:9870/dfshealth.html#tab-overview
HDFS 成功启动。
启动ResourceManager
# sbin/yarn-daemon.sh start resourcemanager
启动NodeManager
# sbin/yarn-daemon.sh start nodemanager
web端查看yarn
浏览器访问: http://192.168.56.200:8088/cluster
YARN 启动成功。
三、测试 wordcount 案例
1、将 wcinput 文件夹上传至 hdfs 根目录
# hadoop fs -put wcinput /
浏览器查看 文件目录 可以看到新上传 wcinput 文件夹。
2、运行MapReduce程序
# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /wcinput /wcoutput
执行完成,刷新浏览器 可以看到执行输出的 wcoutput 文件夹
命令行查看结果
# hadoop fs -cat /wcoutput/*
至此Hadoop伪分布式模式安装完成
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。