我不确定之前是否已尝试过,但我尝试使用Kinect并检测Nao robot所做的手势。
我已经制作了一个Kinect应用程序,a gesture based picture viewer它可以很好地检测到人类(显然确实如此!)我想尝试的是(我很懒),看看我是否可以使用一些(比如语音) )命令告诉Nao做一个向右滑动手势并让我的应用程序识别该手势。 Nao可以轻松识别我的命令并做一些姿势。问题是,当我把Nao放在Kinect传感器前面时,Kinect不跟踪它。
我想知道的是,Kinect的人体运动跟踪背后是否有一些基础知识,当机器人放在它前面而不是人类时,基本上会失败?
PS:我把Nao放在距离传感器的正确距离处。我还检查了整个机器人是否在传感器的视野范围内。答案 0 :(得分:1)
NAO机器人与人类的比例不同,而且它的大小不是人类(太短)。出于这些原因,经典骨架检测不会将NAO检测为人类。
要做到这一点,你应该采用当前的骨架检测,而不是更改阈值和常量。可悲的是,我没有听说这种算法是开源的......
请告诉我......