发表评论取消回复
相关阅读
相关 hadoop源码分析(MapReduce)
原文地址:http://wwangcg.iteye.com/category/171858【good 也有其他方面的内容】 [hadoop 源码分析(一) jobCli
相关 Hadoop WordCount源码解读
MapReduce编程模型 MapReduce采用“分而治之”的思想。将HDFS上海量数据切分成为若干块,将每块的数据分给集群上的节点进行计算。然后通过整合各节点的中间结果,
相关 hadoop源码之Job提交
1、Job提交 编写MapReduce代码最后会调用"Job.waitForCompletion(true);",将作业提交到集群中,并等待完成。 1.1
相关 Hadoop运行MapReduce Job
在Hadoop的share目录里,自带了一些jar包,里面带有一些mapreduce实例小例子,位置在share/hadoop/mapreduce/hadoop-mapredu
相关 [Hadoop源码解读](二)MapReduce篇之Mapper类
前面在讲InputFormat的时候,讲到了Mapper类是如何利用RecordReader来读取InputSplit中的K-V对的。 这一篇里,开始对Mapper.cl
相关 [Hadoop源码解读](三)MapReduce篇之Job类
下面,我们只涉及MapReduce 1,而不涉及YARN。 ![Center][] 当我们在写MapReduce程序的时候,通常,在main函数里,我们会像下面这样做
相关 [Hadoop源码解读](四)MapReduce篇之Counter相关类
![Center][] 当我们定义一个Counter时,我们首先要定义一枚举类型: public static enum MY_COUNTER{
相关 [Hadoop源码解读](五)MapReduce篇之Writable相关类
前面讲了InputFormat,就顺便讲一下Writable的东西吧,本来应当是放在HDFS中的。 当要在进程间传递对象或持久化对象的时候,就需要序列化对象成字节流,反之
相关 [Hadoop源码解读](一)MapReduce篇之InputFormat
平时我们写MapReduce程序的时候,在设置输入格式的时候,总会调用形如job.setInputFormatClass(KeyValueTextInputFormat.cla
还没有评论,来说两句吧...