我考虑过处理一个新项目,其中我使用Tensorflow对象检测API来检测欧洲货盘(eg. pic)。
我的最终目标是知道我离托盘有多远,以及我对它的相对位置。所以我想到首先从kinect相机中检测RGB进纸中的欧元托盘,然后使用其3D功能来获得到托盘的距离。
但是我该如何处理托盘的相对位置?我可以创建不同的类,例如一个是“前视图铺设托盘”另一个Side view laying pallet
等等,但我认为为了准确,每个类需要相当多的图片才有效?每个班级200个?
由于我的猜测是没有这样的标记数据集,所以我自己创建这个数据集非常痛苦。
我能想到的另一种方式是,如果我用托盘而不是边框来标记我的托盘,也许还有另一种方法来找出我对托盘的相对位置?我自己从未做过语义分段标记,但是有人能说出任何我可以使用的好程序吗?
我希望有人可以帮助我指出正确的方向。任何帮助将不胜感激。
答案 0 :(得分:0)
一些想法:假设使用分类器进行检测和分割,然后可以尝试像边/线那样的特征检测,以获得有关其方向的线索(边界框)。
当然,由于表面(木材,污垢),背景和照明非常不同,这对于简单的特征检测来说非常棘手。
此外,"无标记跟踪" (增强现实中的一个主题)和" bin pick" (实际应用于自动化行业)可能是类似问题的关键词,尽管你可能不是从一堆无序的托盘开始。