我正在尝试使用RNN训练机器人进行特定操作,例如抓取或指向。 机器人由一个手臂和一个包含摄像头的头部组成。工作区也将是小桌子,以便可以定位手臂和物体。 递归神经网络的输入将是来自摄像机的每个步骤的图像帧,并且输出将是机器人臂的下一帧的目标电机角度。 当当前图像帧被馈送到网络时,网络输出下一帧的arm的电机值。当手臂到达下一个位置时,该位置的输入框架再次进入网络并再次产生下一个电机输出。
然而,在制作训练数据时,我必须为工作区上的所有位置制作(图像,电机角度)对的所有数据。虽然网络可以通过itselt进行一些泛化工作,但是所需的数据太多了,并且由于轨迹太多而需要很多时间。
概括我所遇到的问题,获取网络培训数据的时间太长了。有没有什么方法或方法可以用小尺寸数据集训练网络?或者在相对较小的人为干预中制作庞大的数据集?
答案 0 :(得分:0)
我搜索了更多的论文,我发现了一些与该主题相关的内容。我的问题的主要议题是
有一些论文,其中两篇对我帮助很大。这是链接。
Explanation-Based Neural Network Learning for Robot Control
Supersizing Self-supervision: Learning to Grasp from 50K Tries and 700 Robot Hours
答案 1 :(得分:0)
你的问题非常广泛,绝对不仅仅包括研究领域。这个问题在这个平台上无法回答,但是,我建议你在gitHub上查看这个compilation of Machine Learning Resources,特别是数据分析部分。
与您的问题相关的更具体的资源是DeepNeuralClassifier。