Hadoop mapreduce是一个分析大数据的框架。所以,其中一个例子就是 分析大数据是计数程序。所以我想问一下,hadoop IntWritable范围需要多长时间(如果数据直到十亿才适合使用?)。如果我们想要计算,我们使用Java Int数据类型执行add或count操作,以及Java Int数据类型范围如何?这也适用于分析大数据吗? (如果数据达到十亿)
非常感谢....
答案 0 :(得分:1)
int数据类型是32位带符号的二进制补码整数。它的最小值为-2,147,483,648,最大值为2,147,483,647(含)。
IntWritable也具有相同的范围容量,因为它仅在内部使用int类型。
如果您想超出此限制,请使用 LongWritable 。
你可以对你的局部变量使用int,long类型,但如果你的计数在网络上移动作为hadoop类型的练习,你必须使用* Writable: - )