从hdfs读取csv文件中的数据帧

时间:2016-02-26 01:57:26

标签: python hadoop pandas hdfs

我正在使用pydoop从hdfs读取文件,当我使用时:

import pydoop.hdfs as hd
with hd.open("/home/file.csv") as f:
    print f.read()

它显示了stdout中的文件。

我有什么方法可以将此文件作为数据框读取?我尝试过使用pandas的read_csv(“/ home / file.csv”),但它告诉我无法找到该文件。确切的代码和错误是:

>>> import pandas as pd
>>> pd.read_csv("/home/file.csv")
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 498, in parser_f
    return _read(filepath_or_buffer, kwds)
  File "/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 275, in _read
    parser = TextFileReader(filepath_or_buffer, **kwds)
  File "/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 590, in __init__
    self._make_engine(self.engine)
  File "/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 731, in _make_engine
    self._engine = CParserWrapper(self.f, **self.options)
  File "/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 1103, in __init__
    self._reader = _parser.TextReader(src, **kwds)
  File "pandas/parser.pyx", line 353, in pandas.parser.TextReader.__cinit__ (pandas/parser.c:3246)
  File "pandas/parser.pyx", line 591, in pandas.parser.TextReader._setup_parser_source (pandas/parser.c:6111)
IOError: File /home/file.csv does not exist

3 个答案:

答案 0 :(得分:11)

我对hdfs几乎一无所知,但我想知道以下内容是否有效:

with hd.open("/home/file.csv") as f:
    df =  pd.read_csv(f)

我认为read_csv适用于文件句柄,或者实际上是任何可以为其提供行的迭代。我知道numpy csv读者。

如果常规Python文件pd.read_csv("/home/file.csv")有效,

open将起作用 - 即它将文件作为常规本地文件读取。

with open("/home/file.csv") as f: 
    print f.read()

但显然hd.open正在使用其他位置或协议,因此该文件不是本地的。如果我的建议不起作用,那么您(或我们)需要深入了解hdfs文档。

答案 1 :(得分:0)

使用 public class EntryEventManager : IEntryEventManager { public void HandleEvent(UpdateEntryEventData eventData) { // Some logic when an entry is updated ... } } 而不是public class EntryManager : DasServiceBase, IEntryManager { public IEventBus EventBus { get; set; } }

read

答案 2 :(得分:0)

您可以使用以下代码从 hdfs 中读取 csv

import pandas as pd
import pyarrow as pa
hdfs_config = {
     "host" : "XXX.XXX.XXX.XXX",
     "port" : 8020,
     "user" : "user"
}
fs = pa.hdfs.connect(hdfs_config['host'], hdfs_config['port'], 
user=hdfs_config['user'])
df=pd.read_csv(fs.open("/home/file.csv"))