我正在尝试将Tensorflow For Poets Google CodeLab用作图像分类项目的模板。
我使用成千上万(也许成百上千)具有变化(相对较高)分辨率的图像进行重新训练,但是它们占用了过多的磁盘空间(超过10 GB),我想缩小它们的尺寸以节省一些空间。
据我了解,图像分辨率在这里并不是一个大问题,将所有图像按比例缩小(从大约4000x3000缩小到小得多)也不是问题。
我尝试使用224x224分辨率,并且一切正常,但是随后我注意到一些现有的SO questions提到输入图像已缩放为299x299而不是224x224。
这让我感到奇怪:使用来自上述CodeLab的代码来确保图像占用尽可能少的空间而不牺牲重新训练模型的性能时,最佳输入图像分辨率是多少?
我是否通过过度缩小图像来破坏该过程?我使用mobilenet_v1_0.50_224
模型,这就是为什么我认为使用224x224图像进行再训练将是最好的方法。
鉴于我所有的图像都具有足够高的分辨率,我可以通过修改脚本来接受更大的图像大小来受益吗?