h5py,零星的写作错误

时间:2013-12-12 18:57:25

标签: python-3.x filesystems hdf5 h5py

我有一些浮点数存储在一个大的(500K x 500K)矩阵中。我通过使用可变大小的数组(根据某些特定条件)将它们存储在块中。

我有一个并行化的代码(Python3.3和h5py),它生成数组并将它们放在一个共享队列中,还有一个从队列中弹出并在HDF5矩阵中逐个写入的专用进程。它大约90%的时间都按预期工作。

偶尔,我会为特定数组编写错误。如果我多次运行它,故障阵列会一直改变。

以下是代码:

def writer(in_q):
    # Open HDF5 archive
    hdf5_file = h5py.File("./google_matrix_test.hdf5")
    hdf5_scores = hdf5_file['scores']
    while True:
        # Get some data
        try:
            data = in_q.get(timeout=5)
        except:
            hdf5_file.flush()
            print('HDF5 archive updated.')
            break
        # Process the data
        try:
            hdf5_scores[data[0], data[1]:data[2]+1] = numpy.matrix(data[3:])
        except:
            # Print faulty chunk's info
            print('E: ' + str(data[0:3]))
            in_q.put(data)  # <- doesn't solve
        in_q.task_done()

def compute():
    jobs_queue = JoinableQueue()
    scores_queue = JoinableQueue()

    processes = []
    processes.append(Process(target=producer, args=(jobs_queue, data,)))
    processes.append(Process(target=writer, args=(scores_queue,)))
    for i in range(10):
        processes.append(Process(target=consumer, args=(jobs_queue,scores_queue,)))

    for p in processes:
        p.start()

    processes[1].join()
    scores_queue.join()

这是错误:

Process Process-2:
Traceback (most recent call last):
    File "/local/software/python3.3/lib/python3.3/multiprocessing/process.py", line 258, in _bootstrap
        self.run()
    File "/local/software/python3.3/lib/python3.3/multiprocessing/process.py", line 95, in run
        self._target(*self._args, **self._kwargs)
    File "./compute_scores_multiprocess.py", line 104, in writer
        hdf5_scores[data[0], data[1]:data[2]+1] = numpy.matrix(data[3:])
    File "/local/software/python3.3/lib/python3.3/site-packages/h5py/_hl/dataset.py", line 551, in __setitem__
        self.id.write(mspace, fspace, val, mtype)
    File "h5d.pyx", line 217, in h5py.h5d.DatasetID.write (h5py/h5d.c:2925)
    File "_proxy.pyx", line 120, in h5py._proxy.dset_rw (h5py/_proxy.c:1491)
    File "_proxy.pyx", line 93, in h5py._proxy.H5PY_H5Dwrite (h5py/_proxy.c:1301)
OSError: can't write data (Dataset: Write failed)

如果我在写入任务中插入两秒钟的暂停(time.sleep(2)),那么问题似乎已经解决了(尽管每次写入我不能浪费2秒,因为我需要写入超过250,000次)。如果我捕获写入异常并将错误的数组放入队列中,脚本将永远不会停止(可能)。

我正在使用CentOS(2.6.32-279.11.1.el6.x86_64)。有什么见解吗?

非常感谢。

1 个答案:

答案 0 :(得分:1)

当使用具有HDF5的多处理模块时,唯一的限制是在调用fork()时不能打开任何文件(甚至只读)。换句话说,如果您在主进程中打开一个文件进行编写,然后Python旋转一个子进程进行计算,则可能会出现问题。它与fork()的工作方式以及HDF5本身对如何处理文件描述符的选择有关。

我的建议是仔细检查您的应用程序,以确保在打开主文件进行写入之前创建任何池等。