首先,我想说我是PyTorch的新手,因此,如果我的问题水平不高,我会在建议中道歉。 我想知道您是否可以帮助我(我实际上有2个问题)。他们背后的故事:我正在研究图像分类。我的测试数据根据其标签分为子文件夹,我通过DataLoader加载它们。
第一个问题: 1)的确,如果您已经训练了具有特定批次大小的模型,那么以其他大小进行测试会影响准确性吗? 2)是否可以使用单个文件夹(不包含子文件夹)中的测试数据来加载和使用模型。据我所知,DataLoader需要子文件夹。
提前谢谢!
答案 0 :(得分:0)
这取决于您是否使用依赖于批次中其他项目的操作。如果您使用的是batch normalization之类的工具,则可能会,但是通常,如果您的网络单独处理批处理项目,则不会。
如果您查看torch.utils.data.Dataset的文档,您会发现一个数据集本质上只需要__len__
和__getitem__
方法,其中前者说该数据集有多少项包含项,而后者获得第i
项-它是图像和标签,图像及其分割蒙版还是其他东西。没有什么可以阻止您编写自定义数据集。建议您查看DatasetFolder的源代码,并根据需要对其进行修改。