我正在使用树莓派作为计算引擎来构建自动驾驶的RC汽车。 该车有一个摄像头,可以捕捉神经网络(使用Tensorflow)使用的图像。网络预测汽车应该向左还是向右行驶。可以通过手动驾驶汽车来完成训练。网络的输入是RGB图像,输出是3个值:速度,左或右。 该设置在其限制范围内效果很好。
我打算扩展功能,以使汽车在检测到停车标志时就停止行驶。
我的第一个想法是,如果图像中是否显示停车标志,则要在预测中添加一个附加的输出值,但是我不确定这是否是最好的主意,如训练驾驶和训练标志识别是完全不同的。或者,我可以使用仅训练用于体征检测的第二个神经元网络。通过第二个网络运行每10张图像应该足够好。
任何建议我是否应该将驱动部分和标志识别保持在同一网络中?