使用相同的图像训练模型是一个好主意,但是有不同的方向?我有一小部分用于培训的图像,这就是为什么我试图覆盖所有移动摄像机用户场景的原因。
例如,image:example.png有3个副本; example90.png,example180.png和example.270.png及其差异旋转。还有不同的背景颜色,阴影等
顺便说一句,我的测试是确定动物的类型。
这是个好主意吗?
答案 0 :(得分:0)
如果你将Core ML与Vision框架一起使用(你可能应该这样做),Vision会自动旋转图像,以便" up"真的很高兴。在这种情况下,用户在拍摄照片时如何握住相机并不重要(假设照片仍然具有描述其方向的EXIF数据)。