我正在尝试使用
保存在keras 1.2中实现的神经网络的权重model.save_weights('weights.h5')
但这会让我超出磁盘配额'错误信息。我从错误消息中猜测它应该采取(总的写入大小'隐含的)小于70MB的空间,但它实际上正在采用(实际上写的'字节隐含的')不合理的空间量(18446744073709551615字节)。我期待大小接近70MB,因为我的网络只是一个单层4096单元的SimpleRNN。我在我的大学超级计算机上使用slurm运行它,我不确定它是否也可能是一个愚蠢的问题。
以下是错误消息:
IOError: Can't prepare for writing data (File write failed: file descriptor = 3,
errno = 122, error message = 'disk quota exceeded', buf = 0x2b72e0202010,
total write size = 67108864, bytes this sub-write = 67108864, bytes actually
written = 18446744073709551615, offset = 2720)
Exception RuntimeError: RuntimeError("Can't decrement id ref count(Unable to extend
file properly, errno = 122, error message = 'disk quota exceeded')",) in
'h5py._objects.ObjectID.__dealloc__' ignored /var/spool/slurm/job06721/
slurm_script: line 12: 10763 Segmentation fault python keras_test.py