我正在研究不平衡数据与caffe框架的影响。现在我试图通过尝试从指定的类中删除一些数据来创建一个新的cifar10发行版。我读了cifar10的文件。它说.bin文件有一个像
这样的数据结构1*8 bit label data | 3*1024 for RGB pixel
所以我写下了一个脚本来过滤掉那些类的数据。并制作一个新的.bin文件。
现在我在caffe上运行脚本并尝试制作LMDB数据集
#!/usr/bin/env sh
# This script converts the cifar data into leveldb format.
EXAMPLE=examples/cifar10
DATA=data/cifar10
DBTYPE=lmdb
echo "Creating $DBTYPE..."
rm -rf $EXAMPLE/cifar10_train_$DBTYPE $EXAMPLE/cifar10_test_$DBTYPE
./build/examples/cifar10/convert_cifar_data.bin $DATA $EXAMPLE $DBTYPE
echo "Computing image mean..."
./build/tools/compute_image_mean -backend=$DBTYPE \
$EXAMPLE/cifar10_train_$DBTYPE $EXAMPLE/mean.binaryproto
echo "Done."
然而,在我过滤掉这些数据之后。似乎IMDB仍然具有相同的大小,并且看起来与没有过滤的那个没有任何不同。有人可以告诉我,我该怎么做才能使数据失衡?