这是我在问题https://stackoverflow.com/questions/33251445/tips-to-store-huge-sensor-data-in-hdf5-using-pandas中尝试讨论的场景的延续。请阅读问题以获取有关后续内容的更多详细信息。
由于上述链接问题因主题过于宽泛而被关闭,因此我没有机会从处理数百GB数据的人那里收集想法。我没有任何经验,我正在学习。我显然在某个地方犯了一些错误,因为我的方法花了太长时间才完成。
我在上面的链接问题中描述的数据。我决定为每个传感器创建一个节点(组)(传感器ID作为节点名,在root下),以存储我拥有的每个260k传感器生成的数据。该文件将以260k节点结束,每个节点将在其下的表中存储几GB数据。完成所有繁重任务的代码如下:
with pd.HDFStore(hdf_path, mode='w') as hdf_store:
for file in files:
# Read CSV files in Pandas
fp = os.path.normpath(os.path.join(path, str(file).zfill(2)) + '.csv')
df = pd.read_csv(fp, names=data_col_names, skiprows=1, header=None,
chunksize=chunk_size, dtype=data_dtype)
for chunk in df:
# Manipulate date & epoch to get it in human readable form
chunk['DATE'] = pd.to_datetime(chunk['DATE'], format='%m%d%Y', box=False)
chunk['EPOCH'] = pd.to_timedelta(chunk['EPOCH']*5, unit='m')
chunk['DATETIME'] = chunk['DATE'] + chunk['EPOCH']
#Group on Sensor to store in HDF5 file
grouped = chunk.groupby('Sensor')
for group, data in grouped:
data.index = data['DATETIME']
hdf_store.append(group, data.loc[:,['R1', 'R2', 'R3']])
# Adding sensor information as metadata to nodes
for sens in sensors:
try:
hdf_store.get_storer(sens).attrs.metadata = sens_dict[sens]
hdf_store.get_storer(sens).attrs['TITLE'] = sens
except AttributeError:
pass
如果我注释掉hdf_store.append(group, data.loc[:,['R1', 'R2', 'R3']])
行,则for chunk in df:
下的位需要 40 - 45秒才能完成迭代处理。 (我正在读取的块大小是1M行。)但是如果代码中包含该行(即如果将分组的块写入HDF文件),则代码需要 10 - 12分钟每次迭代。我对执行时间的增加感到困惑。我不知道造成这种情况的原因。
请给我一些解决问题的建议。请注意,我执行时间不长。我需要以这种方式处理大约220 GB的数据。稍后我需要一次查询一个节点的数据,以便进一步分析。我花了4天多的时间研究这个话题,但我仍然像开始时那样难过。
####编辑1 ####
包含df.info()
包含1M行的块。
<class 'pandas.core.frame.DataFrame'>
Int64Index: 1000000 entries, 0 to 999999
Data columns (total 7 columns):
SENSOR 1000000 non-null object
DATE 1000000 non-null datetime64[ns]
EPOCH 1000000 non-null timedelta64[ns]
R1 1000000 non-null float32
R2 773900 non-null float32
R3 483270 non-null float32
DATETIME 1000000 non-null datetime64[ns]
dtypes: datetime64[ns](2), float32(3), object(1), timedelta64[ns](1)
memory usage: 49.6+ MB
其中,只有DATETIME, R1, R2, R3
被写入文件。
####编辑2 ####
包括pd.show_versions()
In [ ] : pd.show_versions()
Out [ ] : INSTALLED VERSIONS
------------------
commit: None
python: 3.4.3.final.0
python-bits: 64
OS: Windows
OS-release: 8
machine: AMD64
processor: Intel64 Family 6 Model 58 Stepping 9, GenuineIntel
byteorder: little
LC_ALL: None
LANG: None
pandas: 0.17.0
nose: 1.3.7
pip: 7.1.2
setuptools: 18.4
Cython: 0.23.2
numpy: 1.10.1
scipy: 0.16.0
statsmodels: 0.6.1
IPython: 4.0.0
sphinx: 1.3.1
patsy: 0.4.0
dateutil: 2.4.1
pytz: 2015.6
blosc: None
bottleneck: 1.0.0
tables: 3.2.2
numexpr: 2.4.4
matplotlib: 1.4.3
openpyxl: 2.0.2
xlrd: 0.9.4
xlwt: 1.0.0
xlsxwriter: 0.7.3
lxml: 3.4.4
bs4: 4.3.2
html5lib: None
httplib2: None
apiclient: None
sqlalchemy: 1.0.8
pymysql: None
psycopg2: None
答案 0 :(得分:2)
您不断对您编写的行编制索引。写入所有行的效率要高得多,然后创建索引。
请参阅有关创建索引here的文档。
在追加操作传递index=False
;这将关闭索引。
然后当你最终完成时,运行(在每个节点上),假设store
是你的HDFStore
。
store.create_table_index('node')
此操作需要一些时间,但只能进行一次而不是连续进行。这会产生巨大的差异,因为创建可以考虑所有数据(并且只移动一次)。
您可能还希望ptrepack
您的数据(在索引操作之前或之后)重置chunksize
。我不会直接指定它,而是设置chunksize='auto'
以便在写完所有数据后找出最佳尺寸。
所以这应该是一个非常快速的操作(即使使用索引)。
In [38]: N = 1000000
In [39]: df = DataFrame(np.random.randn(N,3).astype(np.float32),columns=list('ABC'),index=pd.date_range('20130101',freq='ms',periods=N))
In [40]: df.info()
<class 'pandas.core.frame.DataFrame'>
DatetimeIndex: 1000000 entries, 2013-01-01 00:00:00 to 2013-01-01 00:16:39.999000
Freq: L
Data columns (total 3 columns):
A 1000000 non-null float32
B 1000000 non-null float32
C 1000000 non-null float32
dtypes: float32(3)
memory usage: 19.1 MB
In [41]: store = pd.HDFStore('test.h5',mode='w')
In [42]: def write():
....: for i in range(10):
....: dfi = df.copy()
....: dfi.index = df.index + pd.Timedelta(minutes=i)
....: store.append('df',dfi)
....:
In [43]: %timeit -n 1 -r 1 write()
1 loops, best of 1: 4.26 s per loop
In [44]: store.close()
In [45]: pd.read_hdf('test.h5','df').info()
<class 'pandas.core.frame.DataFrame'>
DatetimeIndex: 10000000 entries, 2013-01-01 00:00:00 to 2013-01-01 00:25:39.999000
Data columns (total 3 columns):
A float32
B float32
C float32
dtypes: float32(3)
memory usage: 190.7 MB
版本
In [46]: pd.__version__
Out[46]: u'0.17.0'
In [49]: import tables
In [50]: tables.__version__
Out[50]: '3.2.2'
In [51]: np.__version__
Out[51]: '1.10.1'