微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

hadoop全分布式安装

1、统一安装jdk

这里准备4台虚拟机,给其他三台都安装jdk

分别更改hostname为slave1、slave2、slave3.   

vim /etc/sysconfig/network

hostname slave1

统一更改hosts文件vim /etc/hosts

IP master
IP slave1
IP slave2
IP slave3

vim /etc/sysconfig/selinux

配置

关闭防火墙

/etc/init.d/iptables stop

setenforce 0

getenforce

完成ssh免密登陆配置:将master公钥拷贝到3个节点~/.ssh文件夹下

scp authorized_keys slave1:~/.ssh

备份为分布式

cp -r hadoop/ hadoop_pseudo 

2配置hadoop环境变量

vim core-site.xml

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/src/hadoop-2.6.5/full</value>
  </property>
</configuration>

full:全分布式文件存放文件

vim hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>2</value>
  </property>
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>slave1:50090</value>
  </property>
</configuration>

副本数:2(存2个块)看2个块再3个节点副本搭配

slave1: secondarynode节点

vim slaves 配置hadoop从节点

slave1

slave2

slave3

分发hadoop包

scp -r hadoop slave1:/usr/local/src

 

hdfs namenode -format

start-dfs.sh

jps检查

 

观察错误,看日志

谁没起来区那个目录找日志 tail -100 hadoop-root-datanode-slave1.log

50070浏览器节点

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐