将视觉输出映射到神经网络输入

时间:2012-09-19 21:19:52

标签: matlab computer-vision neural-network time-series simulink

我对MATLAB很新,但过去几天熟悉Simulink和Computer Vision。我的问题陈述涉及获取交通/高速公路视频输入并检测是否发生了事故。

我计划通过提取质心的值来绘制轨迹,速度差(帧之间)和两辆车之间的距离。我可以成功跟踪质心,并旨在推导出其余的特征。

我不知道如何将这些映射到ANN。我的意思是,每个图像都有一个以上的车辆斑点,这意味着,单个帧/图像中有多个质心。那么,NN如何同时对多个输入(每个车辆提取的特征)起作用?我显然错过了链接。请帮我解决一下。

另外,我在查看时间序列数据吗?

1 个答案:

答案 0 :(得分:0)

我不确定你的问题。问题可能是时间序列数据而不是。您可能能够转换问题的时间序列版本,以便可以使用ANN解决,但它有点像马斯洛的锤子:)。另外,你能否解释一下这个问题。

正如你所说,你可以给它两三帧的特征然后使用分类器来检测事故与否,但是训练这样的分类器可能很困难。这个问题非常困难,所以你可能需要大量的训练样本才能做到正确,尤其是负面样本(例如汽车彼此靠近)等。

有多种方法可以尝试解决事故检测的这个问题。例如:构建分类器(ANN / SVM等)以检测没有时间序列数据的事故。在这种情况下,您的输入将是事故图像和非事故图像或某种用于训练的正面和负面样本以及稍后用于测试的图像。在这种特定情况下,您不会查看时间序列数据。但是在这里你可能需要很多功能来检测相同的内容(这在某种意义上说是问题的单帧版本)。

第二种方法是使用时间序列数据,在这种情况下,你必须检测特征,跟踪特征(比如使用Lucas Kanade / Horn和Schunck),然后使用有关速度和质心的信息来检测事故。您甚至可以为HMM制定它。