1.下载二进制安装包
https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz
2.下载后解压
tar -zxvf hadoop-2.10.1.tar.gz
3.配置JDK和Hadoop环境变量
vi /etc/profile,新增以下:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.232.b09-0.el7_7.x86_64
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/home/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
source /etc/profile
4.启动hadoop
4.1默认情况下,hadoop使用的是Standalone独立模式,可以直接使用例子进行测试:
mkdir input
cp etc/hadoop/*.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar grep input output 'dfs[a-z.]+'
cat output/*
4.2伪分布模式
修改的配置文件和分布式模式一样,只是配置是单节点的
配置HDFS和副本数
vi etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.3启动Hadoop
先格式化一下hdfs,第一次安装可以使用
bin/hdfs namenode -format
启动namenode和datanode
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
4.4访问hadoop web
http://192.168.1.166:50070/dfshealth.html#tab-overview
4.5尝试往HDFS上传文件
创建文件夹
bin/hdfs dfs -mkdir -p /user/test
上传文件
bin/hdfs dfs -put haha.txt /user/test
查看上传的文件
bin/hadoop dfs -cat /user/test/haha.txt
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。