微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Hadoop 学习笔记十三Map Reduce 运行机制(一)

1、Map Reduce 结构

一个完整的mapreduce程序在分布式运行时有三类实例进程:

  1. MRAppMaster:负责整个程序的过程调度及状态协调;
  2. MapTask:负责map阶段的整个数据处理流程;
  3. ReduceTask:负责reduce阶段的整个数据处理流程;

2、Map Reduce 工作流程

2.1、Map Reduce 工作流程图

 

 

 

 

 

2.2.流程详解
上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:

  1.  MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中;
  2. 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件;
  3. 多个溢出文件会被合并成大的溢出文件;
  4. 在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序;
  5. ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据;
  6. ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序);
  7. 合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法);

2.3、注意

  Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。缓冲区的大小可以通过参数调整,参数:io.sort.mb  认100M。

2.3.源码解析流程

context.write(k, NullWritable.get());
output.write(key, value);
collector.collect(key, value,partitioner.getPartition(key, value, partitions));
    HashPartitioner();
collect()
    close()
    collect.flush()
sortAndSpill()
    sort()   QuickSort
mergeParts();
     
collector.close();

3、InputFormat数据输入

3.1、切片与 MapTask并行度决定机制@H_502_78@

1、问题引入

 

MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。思考:1G的数据,启动8个MapTask,提高的并发处理能力。那么1K的数据,也启动8个MapTask吗?MapTask并行任务是否越多越好呢?

2、MapTask 并行度决定机制

数据块:Block是HDFS物理上把数据分成一块一块。

 

数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。

 

 

 3.2、Job提交流程源码和切片源码详解

1、job 提交流程源码介绍

waitForCompletion()
submit();
// 1建立连接
    connect();    
        // 1)创建提交Job的代理
        new Cluster(getConfiguration());
            // (1)判断是本地yarn还是远程
            initialize(jobTrackAddr, conf); 
// 2 提交job
submitter.submitJobInternal(Job.this, cluster)
    // 1)创建给集群提交数据的Stag路径
    Path jobStagingArea = JobSubmissionFiles.getStagingDir(cluster, conf);

    // 2)获取jobid ,并创建Job路径
    JobID jobId = submitClient.getNewJobID();

    // 3)拷贝jar包到集群
copyAndConfigureFiles(job, submitJobDir);    
    rUploader.uploadFiles(job, jobSubmitDir);

// 4)计算切片,生成切片规划文件
writeSplits(job, submitJobDir);
        maps = writeNewSplits(job, jobSubmitDir);
        input.getSplits(job);

// 5)向Stag路径写XML配置文件
writeConf(conf, submitJobFile);
    conf.writeXml(out);

// 6)提交Job,返回提交状态
status = submitClient.submitJob(jobId, submitJobDir.toString(), job.getCredentials());

 

 

 2、FileInputFormat切片源码介绍

 

 

 3.3、FileInputFormat切片机制

 

 

  

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐