【硬刚Hadoop】HADOOP MAPREDUCE(4):MapReduce工作流程

本文是对《【硬刚大数据之学习路线篇】从零到大数据专家的学习指南(全面升级版)》的Hadoop部分补充。

1.流程示意图,如图4-6,4-7所示

【硬刚Hadoop】HADOOP MAPREDUCE(4):MapReduce工作流程

图4-6  MapReduce详细工作流程(一)

【硬刚Hadoop】HADOOP MAPREDUCE(4):MapReduce工作流程

图4-7  MapReduce详细工作流程(二)

2.流程详解

上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:

1)MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中

2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件

3)多个溢出文件会被合并成大的溢出文件

4)在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序

5)ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据

6)ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)

7)合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)

3.注意

(1)Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。

(2)缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M。

(3)源码解析流程

【硬刚Hadoop】HADOOP MAPREDUCE(4):MapReduce工作流程

上一篇:MongoDB MapReduce


下一篇:Java架构师的升级之路,腾讯T3手把手教你