磁盘配额使用keras时出现错误

时间:2017-07-26 21:38:51

标签: python keras hdf5 slurm

我正在尝试使用

保存在keras 1.2中实现的神经网络的权重
model.save_weights('weights.h5')

但这会让我超出磁盘配额'错误信息。我从错误消息中猜测它应该采取(总的写入大小'隐含的)小于70MB的空间,但它实际上正在采用(实际上写的'字节隐含的')不合理的空间量(18446744073709551615字节)。我期待大小接近70MB,因为我的网络只是一个单层4096单元的SimpleRNN。我在我的大学超级计算机上使用slurm运行它,我不确定它是否也可能是一个愚蠢的问题。

以下是错误消息:

IOError: Can't prepare for writing data (File write failed: file descriptor = 3, 
    errno = 122, error message = 'disk quota exceeded', buf = 0x2b72e0202010, 
    total write size = 67108864, bytes this sub-write = 67108864, bytes actually
    written = 18446744073709551615, offset = 2720)

Exception RuntimeError: RuntimeError("Can't decrement id ref count(Unable to extend
    file properly, errno = 122, error message = 'disk quota exceeded')",) in 
    'h5py._objects.ObjectID.__dealloc__' ignored /var/spool/slurm/job06721/
    slurm_script: line 12: 10763 Segmentation fault python keras_test.py

0 个答案:

没有答案