当前位置:万古网校 > 职业培训 > IT培训 > 大数据培训 > 大数据学习中,MapReduce的知识点总结

大数据学习中,MapReduce的知识点总结


  学习大数据呢,第一个内容就是Hadoop的搭建,以及其中的hdfs,MapReduce,这只是入门的知识,接下来,字母网教育培训小编就关于MapReduce的相关知识点进行总结,对于不擅长归纳的同学这是你值得看的一篇文章,希望能为大家的学习提供便利。

  1、HDFS上的文件以行读取,其中key是行中首字母的起始位置,value是该行的文本内容,一行为一对KV键值对。

  2、通过FileInputFormat将文件切分成split块,FileInputFormat只会划分比block大的部分。切割完毕后通过TextInputFormat对split块中的每行记录解析为K1V1键值对。

  3、一个split块对应一个mapper task任务,map接收K1V1键值对后执行map方法,后输出新的K2V2键值对。

  4、K2V2键值对添加到环形缓冲区中,当数据量达到80%(默认数据,可以使用参数mapreduce.map.sort.spill.percent修改)之后,这80%环形区会触发溢出操作,然后被封锁,mappertask会向剩余部分继续写入数据。同时会对写完的数据执行partitioner(分区)操作,然后对不同分区中的数据进行排序分组(sort)操作,最后对分组后的数据归约(combiner,通过Key进行归并,减少reduce的负担)。

  5、每发生一次溢出操作就会在磁盘中生成换一个磁盘文件,当磁盘文件写入完毕后,环形缓冲区中的封锁区会清空数据,继续接收数据写入。

大数据学习中,MapReduce的知识点总结

  6、mapper task的数据全部写出完毕后,会将多个磁盘文件及内存中多余的数据写出到一个本地磁盘文件中。

  7、此时会通知APPMaster完成map task,当完成数量达到5%时,就启动reduce task任务。

  8、reduce生成fetcher线程组(默认5个)将不同分区的的数据copy到不同的reduce节点上。(一个mapper上的分区可能会被发送到多个reduce,同样一个reduce也会接收来自不同的mapper的分区)

  9、fetcher线程组将数据写入内存的过程中,内存满75%时,也会发生溢出操作,触发sort和merge操作,最后生成一个磁盘文件(merge操作一般是从内存到磁盘,最后再从磁盘到磁盘)

  10、最后磁盘文件的数据会被分组group来提供给reduce方法处理。根据 FileOutputFormat写入目标文件里。

  综上所述,为MapReuce的细节部分,这部分操作大家比较了解,但是马虎之下容易实现操作性的错误,简要记录十点,望大家多多留意,大数据时代,我们无法安然避世,就业的压力摆在面前,只有金甲加身,付出汗水才能获得高薪,最后送大家一句话,不忘初心,方得始终。

  以上就是关于“大数据学习中,MapReduce的知识点总结”的内容分享,如果您有什么好的建议,可随时致电字母网



-->

联系我们

17621386012

在线咨询: 点击这里给我发消息

邮件:1260585560@qq.com

时间:周一至周五,8:30-20:30,节假日休息

扫一扫,关注微信