可以dask parralelize读取一个csv文件?

时间:2016-10-18 05:27:32

标签: python csv pandas dask

我希望将更快的数据访问转换为大型文本文件到hdf存储。转换工作正常,但是从csv文件读取并不是并行完成的。它真的很慢(对于SSD上的1GB文本文件需要大约30分钟,所以我的猜测是它不受IO限制)。

有没有办法让它在parralel的多个线程中读取? 这可能很重要,我目前不得不在Windows下运行 - 以防万一有所不同。

from dask import dataframe as ddf
df = ddf.read_csv("data/Measurements*.csv",
             sep=';', 
             parse_dates=["DATETIME"], 
             blocksize=1000000,
             )

df.categorize([ 'Type',
                'Condition',               
          ])

df.to_hdf("data/data.hdf", "Measurements", 'w')

2 个答案:

答案 0 :(得分:9)

是的,dask.dataframe可以并行读取。但是,您遇到了两个问题:

Pandas.read_csv仅部分释放GIL

默认情况下,dask.dataframe与线程并行化,因为大多数Pandas可以在多个线程中并行运行(释放GIL)。 Pandas.read_csv是一个例外,特别是如果您生成的数据帧使用文本的对象dtypes

dask.dataframe.to_hdf(filename)强制顺序计算

写入单个HDF文件将强制进行顺序计算(并行编写单个文件非常困难。)

编辑:新解决方案

今天我会避免使用HDF并使用Parquet。我可能会使用多处理或dask.distributed调度程序来避免单个机器上的GIL问题。这两者的组合应该为您提供完全线性缩放。

import dask.dataframe as ddf
import dask.multiprocessing

df = ddf.read_csv("data/Measurements*.csv",  # read in parallel
             sep=';', 
             parse_dates=["DATETIME"], 
             blocksize=1000000,
             )

df = df.compute(get=dask.multiprocessing.get)     # convert to pandas

df['Type'] = df['Type'].astype('category')
df['Condition'] = df['Condition'].astype('category')

df.to_hdf('data/data.hdf', 'Measurements', format='table', mode='w')

解决方案

因为您的数据集可能适合内存,所以使用dask.dataframe.read_csv与多个进程并行加载,然后立即切换到Pandas。

Model:
    ref_model=RefModel
    ref_vars+=[Vars]+
;

RefModel:
    'reference' 'file' name=[ModelA]
;

答案 1 :(得分:1)

@MRocklin的答案Pi带了,在较新版本的dask中,您可以使用df.compute(scheduler='processes')df.compute(scheduler='threads')通过多处理或多线程转换为熊猫:

from dask import dataframe as ddf
df = ddf.read_csv("data/Measurements*.csv",
             sep=';', 
             parse_dates=["DATETIME"], 
             blocksize=1000000,
             )

df = df.compute(scheduler='processes')     # convert to pandas

df['Type'] = df['Type'].astype('category')
df['Condition'] = df['Condition'].astype('category')

df.to_hdf('data/data.hdf', 'Measurements', format='table', mode='w')