微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

使用CentOs7搭建Hadoop环境

事前准备

下载java的压缩包

下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

@H_502_9@

下载Hadoop压缩包

下载地址:https://archive.apache.org/dist/hadoop/common/

@H_502_9@

使用第三方远程工具进行远程

1 使用ifconfig获取ip(我这里的192.168.0.51就是我的ip了)

@H_502_9@

2 打开第三方远程工具(我这里使用的是MobaXterm)

@H_502_9@

3 点击OK之后,使用你root的密码登录,再将你的java压缩包拖到usr/java目录下,将你的hadoop压缩包拖到usr/hadoop目录下

可能会出现的问题

ifconfig命令失效解决方

输入如下命令:cd /etc/sysconfig/network-scripts/

再输入ls命令 我画红框格式的就是你要修改文件(因为每个文件的名字会不一样,基本上是第一个

@H_502_9@

修改这个文件,输入如下命令vi ifcfg-ens33

@H_502_9@

输入i进入插入模式 将ONBOOT改为yes

@H_502_9@

输入:wq保存并退出

@H_502_9@/res/2022/09-04/20/4cfc493a38024ec8bd3ad8c8783f881c.jpg

按照顺序输入如下命令:

1 service network restart

2 yum -y install wget

3 yum install net-tools

再输入ifconfig就可以了

Linux安装java

解压压缩包

切换到/usr/java目录(没有则自行创建),将你所下载的压缩包拷贝进来

输入如下命令:tar -zxvf jdk-8u311-linux-x64.tar.gz,其中jdk-8u311-linux-x64.tar.gz为你下载的压缩包文件会,会根据你下载的不同,名字也不同,可以使用tab自动补全哈

设置环境变量

在命令行输入如下命令:vi /etc/profile(进入编辑状态,编辑的是profile这个文件

切换到最后一行,点击i,会出现--insert--的样式(进入插入模式),我们添加(粘贴)上如下内容

set java environment
JAVA_HOME=/usr/java/jdk1.8.0_311        
JRE_HOME=/usr/java/jdk1.8.0_311/jre    
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH

其中:jdk1.8.0_311为你usr/java目录下的,解压压缩包所生成文件

@H_502_9@

点击键盘上的Esc,退出插入模式

输入:wq退出vim模式

再次在命令行中输入source /etc/profile,来让我们之前的修改生效

查看是否安装成功

在命令行中输入java -version显示出正确的java版本就成功安装java了

@H_502_9@

SSH的安装与配置

输入如下命令:yum install openssh-server

@H_502_9@

创建SSH文件

@H_502_9@

再输入如下命令(在ssh文件夹下创建两个文件id_dsa及id_dsa.pub,这是一对私钥和公钥,然后把id_dsa.pub(公钥)追加到授权的key里面去):

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

@H_502_9@

第一次登陆可能会询问是否继续链接 输入yes即可 以后登陆直接使用ssh localhost登进去

@H_502_9@

Linux安装,使用Hadoop

解压压缩包

切换到/usr/hadoop目录(没有则自行创建),将你所下载的压缩包拷贝进来

在hadoop目录下,输入如下命令:tar -zxvf hadoop-2.7.6.tar.gz,同理,hadoop-2.7.6.tar.gz为你下载的压缩包文件的名字

修改hdfs的配置文件

我这里存放的目录就是hadoop 所以 按我的流程

先切换到hadoop目录:cd /usr/hadoop/hadoop-2.7.6/etc/hadoop

再输入vi hadoop-env.sh

@H_502_9@

 

@H_502_9@

输入i,切换到插入模式,将画红框的地方切换为你java的安装路径

@H_502_9@

修改完毕之后,点击Esc退出并用!wq保存

再输入如下命令:vi core-site.xml(由于我的路径在hadoop解压后的etc/hadoop目录下,所以我的vi可以直接进行编辑,如果你们的路径不是在这个目录下,需要切换路径或者直接vi后面接上全路径/core-site.xml)

@H_502_9@

输入i,切换到插入模式,将红框的地方切换为如下(后面我就不用输入i退出这些话了,因为已经说了两次了):

<configuration>
   <!-- 指定HDFS老大(namenode)的通信地址 -->
   <property>
       <name>fs.defaultFS</name>
       <value>hdfs://0.0.0.0:9000</value>
   </property>
   <!-- 指定hadoop运行时产生文件的存储路径 -->
   <property>
       <name>hadoop.tmp.dir</name>
       <value>/usr/hadoop/temp</value>
   </property>
</configuration>

其中value的值可以根据自己Linux里面存放的路径进行修改与切换

@H_502_9@

修改hdfs-site.xml,输入vi hdfs-site.xml

@H_502_9@

将configuration切换为如下:

@H_502_9@

<configuration>
<!-- 设置hdfs副本数量 -->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>

启动与停止

第一次启动得先格式化,输入如下命令:/usr/hadoop/hadoop-2.7.6/bin/hdfs namenode -format

启动hdfs

/usr/hadoop/hadoop-2.7.6/sbin/start-dfs.sh

访问:

你虚拟机的端口:50070 就可以了,选择这里的Datanodes,这里可以看到你hdfs的端口的开启状态

@H_502_9@

可能会出现端口访问失败的问题,我们使用/sbin/iptables -I INPUT -p tcp --dport 50070 -j ACCEPT就可以开启该端口了

停止hdfs

/usr/hadoop/hadoop-2.7.6/sbin/stop-dfs.sh

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐