微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

idea开发hadoop配置

idea开发hadoop配置

1.环境准备

windows下的hadoop下载,
hadoop的环境变量的配置
java安装和环境变量的配置
maven的安装以及环境变量配置
idea的安装完成

在这里插入图片描述

2:新建项目

在这里插入图片描述

3:pom.xml修改

在这里插入图片描述


<hadoop.version>2.7.6</hadoop.version>


junit
junit
4.11
test

<!--hadoop开发依赖核心-->
<dependency>
  <groupId>org.apache.hadoop</groupId>
  <artifactId>hadoop-client</artifactId>
  <version>${hadoop.version}</version>
</dependency>
<dependency>
  <groupId>org.apache.hadoop</groupId>
  <artifactId>hadoop-common</artifactId>
  <version>${hadoop.version}</version>
</dependency>
<dependency>
  <groupId>org.apache.hadoop</groupId>
  <artifactId>hadoop-hdfs</artifactId>
  <version>${hadoop.version}</version>
</dependency>

`

4:将集群中hadoop配置文件夹下的log4j.properties 和 core-site.xml和hdfs-site.xml下载到本地并复制到文件复制到项目resources目录

放入文件系统路径,可查看自己虚拟机的core-site.xml中的配置,进行复制在

5:加入hadoop的jar包

在这里插入图片描述


在这里插入图片描述

6:集群启动:

zkServer.sh start
start-dfs.sh
start-yarn.sh

启动完毕的所有进程

7:web验证

web端查看集群状态:认端口50070
https://ip:50070

在这里插入图片描述


备用节点处于standby状态,集群运行良好

8:idea开发验证

public class ConnectionHadoop {
    public static void main(String[] args) {
            ConnectionHadoop.hdfsutils();
    }

    public static void hdfsutils() {
        try {
            Configuration conf = new Configuration();
            FileSystem fS = FileSystem.get(new URI("hdfs://192.168.2.101:9000"), conf ,"hadoop");
            Path path = new Path("hdfs://192.168.2.101:9000/home/hadoop/testTxt");
            if (fS.exists(path)) {
                System.out.println("path is exists");
            } else {
                fS.create(path);
                System.out.println("create successed");
            }

        } catch (Exception e) {
            System.out.println(e);
        }
    }
}

创建HDFS目录成功

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐