我理解神经网络回归的方法是从数据集中向每个x-input
添加权重。我想要一些略有不同的东西。
我希望将权重添加到计算每个x-input
的函数中,我们称之为s-inputs
计算x-inputs
的函数是所有s-inputs
的求和函数,我希望每个s-input
都有自己的权重
所以我说回归因为我希望最终结果是映射x -> y
...但这是通过训练计算x-inputs
令我感到困惑的是,因为当我们训练权重来计算时,x1
我们也在训练权重以计算x2
,因为它们使用相同的求和函数。因此,由于在所有x-inputs
内同时训练计算x输入的函数,因此情节x -> y
将开始变形。我需要它变成连续的东西。
你可以这样想。 y-value
是基本事实,但我们正在为计算x-value
的函数添加权重 - s-inputs
可以这样做吗?如果是这样我应该从哪里开始?