我有这个代码(我很抱歉,它几乎是我工作代码的精确复制粘贴。我不知道问题可能在哪里,因此我把它全部放在这里):
def init(Q):
"""Serves to initialize the queue across all child processes"""
global q
q = Q
def queue_manager(q):
"""Listens on the queue, and writes pushed data to file"""
while True:
data = q.get()
if data is None:
break
key, preds = data
with pd.HDFStore(hdf_out, mode='a', complevel=5, complib='blosc') as out_store:
out_store.append(key, preds)
def writer(message):
"""Pushes messages to queue"""
q.put(message)
def reader(key):
"""Reads data from store, selects required days, processes it"""
try:
# Read the data
with pd.HDFStore(hdf_in, mode='r') as in_store:
df = in_store[key]
except KeyError as ke:
# Almost guaranteed to not happen
return (key, pd.DataFrame())
else:
# Executes only if exception is not raised
fit_df = df[(df.index >= '2016-09-11') & \
(df.index < '2016-09-25') & \
(df.index.dayofweek < 5)].copy()
pre_df = df[(df.index >= '2016-09-18') & \
(df.index < '2016-10-2') & \
(df.index.dayofweek < 5)].copy()
del df
# model_wrapper below is a custom function in another module.
# It works fine.
models, preds = model_wrapper(fit_df=fit_df, pre_df=pre_df)
if preds is not None:
writer((key, preds))
del preds
return (key, models)
def main():
sensors = pd.read_csv('sens_metadata.csv', index_col=[0])
nprocs = int(cpu_count() - 0)
maxproc = 10
q = Queue()
t = Thread(target=queue_manager, args=(q,))
print("Starting process at\t{}".format(dt.now().time()))
sys.stdout.flush()
t.start()
with Pool(processes=nprocs, maxtasksperchild=maxproc, initializer=init,
initargs=(q,)) as p:
models = p.map(reader, sensors.index.tolist(), 1)
print("Processing done at\t{}".format(dt.now().time()))
print("\nJoining Thread, and finishing writing predictions")
sys.stdout.flush()
q.put(None)
t.join()
print("Thread joined successfully at\t{}".format(dt.now().time()))
print("\nConcatenating models and serializing to pickle")
sys.stdout.flush()
pd.concat(dict(models)).to_pickle(path + 'models.pickle')
print("Pickled successfully at\t{}".format(dt.now().time()))
if __name__ == '__main__':
main()
此代码表现得像是一个严重偏向的抛硬币。大部分时间它都不起作用,有时它起作用。当它运行时,我知道完成运行整个数据大约需要2.5小时(所有keys
)。 10个运行中的9个,它将处理所有数据,我看到hdf_out
文件中的数据,但多处理池没有加入。所有子进程都处于活动状态,但没有做任何工作。我只是不明白为什么程序会像这样挂起来。
当发生这种情况时,我看不到"Processing done at ..."
和"Joining Thread, ..."
消息。此外,如果我给它更小的数据集,它就完成了。如果我排除preds
的计算,它就会完成。我不能排除models
的计算而不进行大量修改,这不会对项目的其他部分有所帮助。
我不知道为什么会这样。我正在使用Linux(Kubuntu 16.04)。
答案 0 :(得分:0)
显然放弃maxtaskperchild
kwag解决了这个问题。为什么我不清楚地理解。我想它与fork进程(Linux上的默认值)和spawn进程(Windows上的唯一选项)之间的区别有关。
使用fork进程maxtaskperchild
显然不是必需的,因为如果没有它,性能会更好。我注意到通过删除maxtaskperchild
改进了内存使用。内存不会被子进程占用,而是从父进程共享。但是,当我不得不使用Windows时,maxtaskperchild
是阻止子进程膨胀的关键方法,尤其是在运行具有长任务列表的内存密集型任务时。
如果有人知道发生了什么更好,请随时编辑此答案。