这是我第一次使用python学习Hadoop MapReduce。
我写了一个map.py来获取两个文件的文件名,以便了解如何连接两个文件。 这是两个CSV文件:
worksheet1.csv
sno,name
1,name1
2,name2
3,name3
4,name4
worksheet2.csv
sno,courseno,grade
1,1,80
1,2,90
2,1,82
2,2,95
map.py:
#!/bin/bash
# -*- coding: utf-8 -*-
import os
import sys
def mapper():
filepath = os.environ["map_input_file"]
filename = os.path.split(filepath)[-1] #get the names
for line in sys.stdin:
if line.strip()=="":
continue
fields = line[:-1].split("\t")
sno = fields[0] #get student ID
if filename == 'worksheet1':
#get student ID and name, mark 0
name = fields[1]
print '\t'.join((sno,'0',name))
elif filename == 'worksheet2':
#get student ID, course number, grade, mark 1
courseno = fields[1]
grade = fields[2]
print '\t'.join((sno,'1',courseno,grade))
if __name__=='__main__':
mapper()
然后我用
$cat worksheet1 worksheet2 |python map.py
测试程序。
错误如下所示:
Traceback (most recent call last):
File "map.py", line 30, in <module>
mapper()
File "map.py", line 11, in mapper
filepath = os.environ['map_input_file']
File "/usr/lib64/python2.7/UserDict.py", line 23, in __getitem__
raise KeyError(key)
KeyError: 'map_input_file'
请告诉我为什么以及如何修改代码。 非常感谢你!
答案 0 :(得分:1)
您尚未设置map_input_file
环境变量。此外,您将数据文件传输到脚本中,以便它们在脚本中以sys.stdin
形式提供,但是您的代码可以发现当前正在读取哪些文件是完全错误的。我建议只使用fileinput
模块。
答案 1 :(得分:1)
在这种情况下,您无法在本地测试您的程序。
当您运行Hadoop Streaming时,Hadoop框架将设置os.environ['map_input_file']
,以便您可以获取文件名。但是,当您在本地运行时,没有人为您设置。
所以不要在本地计算机上测试它,只需在Hadoop上运行它。
顺便说一下,通过检查字段数来区分不同文件是一种不好的做法,例如len(line.split(","))
。因为你很幸运,不同的文件总是有不同的len()
。如果您正在处理其他人生成的文件,如果他们将来更改文件的格式(例如,添加更多字段),您会很生气。