微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

1.大数据系列之Hadoop安装

目录

 

Hadoop学习路上的那些事儿,很有必要分享出来

什么是Hadoop

实验过程

实验总结


Hadoop学习路上的那些事儿,很有必要分享出来

 

什么是Hadoop

从广义上讲呢,是一个大数据生态,从狭义上讲呢,主要包含了分布式文件系统(HDFS)、资源管理(YARN)、批处理(MapReduce)。

一言不合上官网。http://hadoop.apache.org/

 

 

实验过程

实验准备:

1. 云主机一台,此实验采用的是移动云云主机。(相当于虚拟机)

2. JDK安装包,版本jdk1.8.0_181

3. Hadoop安装包,版本hadoop-2.10.1

 

步骤一:安装JDK,并配置环境变量

下载合适的JDK安装包,为了后续实验,建议版本1.8以上。由于在Oracle官网上下载比较麻烦(需要注册登录),索性在网上找了一个,下载到本地后上传到云主机里,并且解压。

 

配置环境变量,/etc/profile

## JAVA_HOME
export JAVA_HOME=/root/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin

使用source /etc/profile命令,让环境变量马上生效,然后再用java -version命令验证安装结果。如果能正确打印JDK版本信息,说明安装成功。

 

步骤二:安装Hadoop,并配置环境变量

在Hadoop官网下载对应的版本,并上传到云主机中,完成解压后配置环境变量。

配置环境变量,/etc/profile

## HADOOP_HOME
export HADOOP_HOME=/root/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

同样使用source /etc/profile命令,让环境变量马上生效,然后再用hadoop version命令验证安装结果。如果能正确打印版本信息,说明安装成功。

 

步骤三:简单验证hadoop工作原理

官网其实提供了详细的操作命令,概况来讲,就是从一个input输入文件中读取数据,然后通过hadoop安装包里的example程序,对输入数据进行处理,然后输出结果。因为是测试,数据量小,看不出效果,如果是超级多的数据,大数据的处理效果就会很明显。

 

mkdir input
cp etc/hadoop/*.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar grep input output 'dfs[a-z.]+'
cat output/*

 

实验总结

1)hadoop实验环境搭建比较简单,如果是采用云主机,注意配置安全组策略,确保远程端口和IP地址放通。

2)JDK版本一定要安装正确,环境变量也要真确配置,否则hadoop会报错。

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐