微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

hadoop使用

1.编写Java 代码

package edu.jmi.hdfsclient;

import java.io.IOException;

import java.net.socket;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path/* * Hello World! *

 */
public class AppTest 
{
    public static void main( String[] args ) throws Exception, IOException
    {
        upload();
    }
    public static void download() throws IOException {    
        Configuration conf = new Configuration();        
        conf.set("fs.defaultFS","hdfs://192.168.159.134:9000");        
        FileSystem fs = FileSystem.newInstance(conf);      
        fs.copyToLocalFile(new Path("/start-all.sh"),new Path("e://"));   
    }
    public static void upload() throws IOException {    
    Configuration conf = new Configuration();     
         conf.set("fs.defaultFS","hdfs://192.168.159.134:9000");     
         FileSystem fs = FileSystem.get(conf);
         Path src=new Path("d://my.txt");
         Path dest=new Path("/");
         fs.copyFromLocalFile(src,dest);
         FileStatus[] fileStatus  = fs.listStatus(dest);
         for(FileStatus file:fileStatus){
          System.out.println(file.getPath());
       }
         System.out.println("上传成功");
    }
    public static void test()throws Exception{
        Socket socket=new Socket("192.168.159.134",9000);
        System.out.println(socket);//查看网络是否相同,拒绝说明防火墙开了,外界无法访问到网络。关一下就好了
    }

}

 

 

 

 

 

 2.编写map与reduce函数

 

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐