1:首先上传Hadoop压缩包
放在指定的文件下,解压到opt下的一个指定目录
2:等待解压完成
3:看看是否解压到文件opt文件夹
运行文件读取的文是etc目录
bin下面是一些脚本
sbin下面的文件很重要!!!
属于系统级别的文件
3:配置Hadoop的环境变量
Pwd查询当前路径复制
进入这个目录配置环境变量
在Java下配置Hadoop目录位置
:后面追加环境变量
4:读一下:
查看:
5:进入etc目录下的hadoop目录
进入hadoop ll查看
查看Java的路径并复制
Vi进入这个文件、
把里面的内容改成现在的样子
6:
进入这个文件
修改以下内容
把#去掉
7:配置core-site.xml
进入:
修改内容
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value>
</property>
7进入
修改内容
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
8:配置slaves文件
进入这个文件
修改成主机名称
9:进入
配置
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node06:50090</value>
</property>
10:进入core-site.xml文件
<property>
<name>hadoop.tmp.dir</name>
<value>/var/sxt/hadoop/local</value>
</property>
11:格式化
查看这个目录
准备格式化
注意这个路径
Var/Hadoop/hadoop/local
输入这个命令
准备格式化
回车格式化完成
12:查看进入一系列文件
13:查看这个文件夹
每一个Hadoop集群启动的时候都会生成一个唯一标识号ID
集群的ID是一样的
14:准备启动Hadoop
启动完成后会有四个进程
15:Hadoop有提供一个可视化的功能,在浏览器那边
首先查询一下浏览器的通信端口
50070是通信端口
16:进入通信端口,在火狐上输入
192.168.52.201:50070
Ip地址加端口号
17:创建一个路径
创建一个文件
hdfs dfs – 是必不可少的
查看文件
查看可视化
18:上传文件
上传成功是这样的
19:学会看日志文件排错(如果防火墙没有关闭,后续会出现一系列的问题)
Out是 临时文件,主要是看log文件
20:关闭集群
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。