模拟传感器值与目标位置(角度和距离)之间的关系

时间:2017-12-20 14:21:02

标签: matlab math modeling

我想派生一个简单的模型,可以预测一个物体相对于目标的当前位置。

更具体地说,我的头部有4个相同的光传感器放置在90度之间。有一个发出可见光的光源(LED)。由于每个传感器都有角度光谱(最大值为90度并且在光入射角度增加时降低其灵敏度),每个传感器的接收值由头部相对于目标的角度和距离决定。

我测量了不同角度和距离的四个传感器的值。

当入射光较低时(传感器远离目标或传感器背向目标),每个传感器的最大值约为9.5,而当传感器靠近目标或直接朝向目标时,值会减小目标。

我的输入和输出看起来像 [0.1234 0.0124 8.342 9.232] = [角度,距离]:头部靠近灯光的一个例子。

来自传感器的四个输入和两个角度和距离输出。

我可以采用什么策略来推导出一个可用于通过输入当前传感器值来预测角度和距离的方程?

我在考虑多元回归,但我的输出不是单个标量(更多的向量)。我不确定它会起作用。 因此,我正在写这里寻求帮助。

任何帮助都将不胜感激。

由于

1 个答案:

答案 0 :(得分:0)

您对多变量回归的看法看起来很合理。

恕我直言,你需要训练两个模型而不是一个。第一个将预测角度,第二个将预测距离。

为什么要将这两种模型结合起来?从优化度量的角度来看,这看起来很奇怪。构建角度模型时,最小化弧度中的误差。构建距离模型时,最小化中的错误。那么在单个模型案例中您将最小化的指标是什么?

我相信下一个链接对您有用:

  1. https://www.mathworks.com/help/curvefit/surface-fitting.html
  2. https://www.mathworks.com/help/matlab/math/example-curve-fitting-via-optimization.html
  3. 注意:在某些情况下,数据规范化(例如通过zscore)会大大提高拟合性能。

    P.S。也可以尝试https://stats.stackexchange.com/