我在train.txt
中列出了以下h5文件,我将其提供给hdf5数据层。
/home/foo/data/h5_files/train_data1.h5 /home/foo/data/h5_files/train_data2.h5 /home/foo/data/h5_files/train_data3.h5 /home/foo/data/h5_files/train_data4.h5 /home/foo/data/h5_files/train_data5.h5
我在这些文件中有3个数据集 - X
,Meta
和Labels
。最初,我将所有这些保存在1 h5文件中,但由于caffe无法处理大于2 GB的h5文件,因此我必须将X(X表示包含5000个样本)分为5个部分。在第一个h5中,我将Meta和Labels与第一部分一起存储,即; 1000个X样本,在剩余的4个h5文件中,我每个都有1000个样本。
当我开始微调时,caffe崩溃并出现以下错误消息
0111 07:46:54.094041 23981 layer_factory.hpp:74] Creating layer data
net.cpp:76] Creating Layer data
net.cpp:334] data -> X
net.cpp:334] data -> Labels
net.cpp:334] data -> Meta
net.cpp:105] Setting up data
hdf5_data_layer.cpp:66] Loading list of HDF5 filenames from: /home/foo/hdf5_train.txt
hdf5_data_layer.cpp:80] Number of HDF5 files: 5
hdf5_data_layer.cpp:53] Check failed: hdf_blobs_[i]->num() == num (5000 vs. 1000)
*** Check failure stack trace: ***
@ 0x7f1eebcab0d0 google::LogMessage::Fail()
@ 0x7f1eebcab029 google::LogMessage::SendToLog()
@ 0x7f1eebcaaa07 google::LogMessage::Flush()
@ 0x7f1eebcad98f google::LogMessageFatal::~LogMessageFatal()
@ 0x7f1ef18ff045 caffe::HDF5DataLayer<>::LoadHDF5FileData()
@ 0x7f1ef18fdca4 caffe::HDF5DataLayer<>::LayerSetUp()
@ 0x7f1ef196bffc caffe::Net<>::Init()
@ 0x7f1ef196e0b2 caffe::Net<>::Net()
@ 0x7f1ef18cf3cd caffe::Solver<>::InitTrainNet()
@ 0x7f1ef18cfa3f caffe::Solver<>::Init()
@ 0x7f1ef18cfe75 caffe::Solver<>::Solver()
@ 0x40a3c8 caffe::GetSolver<>()
@ 0x404fb1 train()
@ 0x405936 main
@ 0x3a8141ed1d (unknown)
@ 0x4048a9 (unknown)
根据我的说法,主要的是&#39;检查失败:hdf_blobs_ [i] - &gt; num()== num(5000 vs. 1000)&#39;
从中我假设caffe只读取第一个h5文件,如何让它读取所有5个h5文件?请帮忙!
答案 0 :(得分:3)
您希望caffe
如何在所有文件中同步所有输入数据?您是否希望它从第二个文件中读取X
并从第一个文件中读取Meta
?
如果您要实施"HDF5Data"
图层,那么您将如何为您安排数据?
目前在caffe中实现的方式,所有变量应以相同的方式在HDF5文件之间分配。也就是说,如果你决定将X
分成5个文件,例如第一个文件中有1000个样本,第二个文件中有1234个样本等等。那么你必须除以{{1}和Meta
以同样的方式:Labels
将有1000个train_data1.h5
,X
和Meta
的样本; Label
将包含1234个train_data2.h5
,X
和Meta
的样本,依此类推。
Caffe不会将所有数据加载到内存中,它只会获取SGD迭代所需的批处理。因此,将变量拆分为不同的文件是没有意义的。此外,如果您将每个文件中存储的样本数量设置为Label
的整数倍,则可能会有所帮助。