回归神经网络

时间:2016-01-12 14:37:06

标签: optimization machine-learning neural-network regression

我理解神经网络回归的方法是从数据集中向每个x-input添加权重。我想要一些略有不同的东西。

我希望将权重添加到计算每个x-input的函数中,我们称之为s-inputs

计算x-inputs的函数是所有s-inputs的求和函数,我希望每个s-input都有自己的权重

所以我说回归因为我希望最终结果是映射x -> y

之间的一个漂亮的连续函数

...但这是通过训练计算x-inputs

的函数来完成的

令我感到困惑的是,因为当我们训练权重来计算时,x1我们也在训练权重以计算x2,因为它们使用相同的求和函数。因此,由于在所有x-inputs内同时训练计算x输入的函数,因此情节x -> y将开始变形。我需要它变成连续的东西。

你可以这样想。 y-value是基本事实,但我们正在为计算x-value的函数添加权重 - s-inputs

可以这样做吗?如果是这样我应该从哪里开始?

0 个答案:

没有答案