我想在Amazon EMR(python)上使用Hadoop MapReduce处理一个巨大的CSV文件。
该文件有7个字段,但是,我只查看日期和数量字段。
"date" "receiptId" "productId" "quantity" "price" "posId" "cashierId"
首先,我的mapper.py
import sys
def main(argv):
line = sys.stdin.readline()
try:
while line:
list = line.split('\t')
#If date meets criteria, add quantity to express key
if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
print '%s\t%s' % ("Express", int(list[3]))
#Else, add quantity to non-express key
else:
print '%s\t%s' % ("Non-express", int(list[3]))
line = sys.stdin.readline()
except "end of file":
return None
if __name__ == "__main__":
main(sys.argv)
对于reducer,我将使用streaming命令:aggregate。
问题:
我的代码是对的吗?我在Amazon EMR中运行它,但我得到一个空输出。
所以我的最终结果应该是:express,XXX和非express,YYY。在返回结果之前,我可以让它进行除法运算吗?只是XXX / YYY的结果。我应该把这段代码放在哪里?减速机??
此外,这是一个巨大的CSV文件,因此映射会将其分解为几个分区吗?或者我是否需要显式调用FileSplit?如果是这样,我该怎么做?
答案 0 :(得分:3)
在这里回答我自己的问题!
代码错了。如果您使用聚合库来减少,则您的输出不会遵循通常的键值对。它需要一个&#34;前缀&#34;。
if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
#This is the correct way of printing for aggregate library
#Print all as a string.
print "LongValueSum:" + "Express" + "\t" + list[3]
其他&#34;前缀&#34;可用的有:DoubleValueSum,LongValueMax,LongValueMin,StringValueMax,StringValueMin,UniqValueCount,ValueHistogram。有关详细信息,请查看此处http://hadoop.apache.org/common/docs/r0.15.2/api/org/apache/hadoop/mapred/lib/aggregate/package-summary.html。
是的,如果你想做的不仅仅是基本的总和,最小值,最大值或数量,你需要编写自己的减速器。
我还没有答案。