python中的MapReduce:os.environ [" map_input_file"]在map.py中工作

时间:2017-07-03 06:24:43

标签: python linux hadoop mapreduce

这是我第一次使用python学习Hadoop MapReduce。

我写了一个map.py来获取两个文件的文件名,以便了解如何连接两个文件。 这是两个CSV文件:

worksheet1.csv

sno,name
1,name1
2,name2
3,name3
4,name4

worksheet2.csv

sno,courseno,grade
1,1,80
1,2,90
2,1,82
2,2,95

map.py:

#!/bin/bash
# -*- coding: utf-8 -*-
import os
import sys

def mapper():

    filepath = os.environ["map_input_file"] 
    filename = os.path.split(filepath)[-1]  #get the names
    for line in sys.stdin:
        if line.strip()=="":
            continue
        fields = line[:-1].split("\t") 
        sno = fields[0]   #get student ID

        if filename == 'worksheet1':
            #get student ID and name, mark 0
            name = fields[1] 
            print '\t'.join((sno,'0',name)) 
        elif filename == 'worksheet2':
            #get student ID, course number, grade, mark 1
            courseno = fields[1]
            grade = fields[2]
            print '\t'.join((sno,'1',courseno,grade)) 


if __name__=='__main__':
    mapper()

然后我用

    $cat worksheet1 worksheet2 |python map.py

测试程序。

错误如下所示:

Traceback (most recent call last):
  File "map.py", line 30, in <module>
    mapper()
  File "map.py", line 11, in mapper
    filepath = os.environ['map_input_file']
  File "/usr/lib64/python2.7/UserDict.py", line 23, in __getitem__
    raise KeyError(key)
KeyError: 'map_input_file'

请告诉我为什么以及如何修改代码。 非常感谢你!

2 个答案:

答案 0 :(得分:1)

您尚未设置map_input_file环境变量。此外,您将数据文件传输到脚本中,以便它们在脚本中以sys.stdin形式提供,但是您的代码可以发现当前正在读取哪些文件是完全错误的。我建议只使用fileinput模块。

答案 1 :(得分:1)

在这种情况下,您无法在本地测试您的程序。

当您运行Hadoop Streaming时,Hadoop框架将设置os.environ['map_input_file'],以便您可以获取文件名。但是,当您在本地运行时,没有人为您设置。

所以不要在本地计算机上测试它,只需在Hadoop上运行它。

顺便说一下,通过检查字段数来区分不同文件是一种不好的做法,例如len(line.split(","))。因为你很幸运,不同的文件总是有不同的len()。如果您正在处理其他人生成的文件,如果他们将来更改文件的格式(例如,添加更多字段),您会很生气。