我有三个矩阵A, B
和C
,其大小均为120*1000 double
,其中120
代表时间点数,1000
代表功能总数。对于每个矩阵,存在相应的回归矩阵,其大小均为120*5 double
。回归量矩阵仅包含"1"
和"0"
,其中"1"
表示此时间点有刺激,"0"
表示休息时间点。我想找到三个矩阵A, B
和C
与三个回归矩阵相结合的共同特征。然后我想基于矩阵A
和B
训练分类器。最后,我想根据训练数据对矩阵C
进行分类。怎么实现呢?谢谢!
答案 0 :(得分:0)
我希望更有资格的人会介入,但看起来缺乏来自OP方面的具体信息令所有人都不敢回答。我的评论意味着作为指导而非答案,但根据要求移动了我的评论回答。
首先,这远不是我的茶,所以处理极端的偏见,但是:
如果功能/主题不相关
然后你应该将每个作为单独的 1D 函数/数组/向量处理并训练你的神经网络分类器(每个特征一个)。
如果功能依赖于彼此
然后你需要将它们全部用作神经网络分类器的输入,并使网络架构具有足够大量的节点(wights),能够处理大量数据。
如果您想减少对分类器的输入,您需要找到自己的依赖
但是当你想要神经网络时,你不需要因为神经网络倾向于自己做。如果你这样做,那将会减少所需的架构复杂性。
无论如何,如果你真的需要这样做,那么PCA Principal Component Analysis就是你的方式......这个步骤通常用于基于确定性的分类器(不是神经网络分类器,例如基于correlation coefficients或基于在任何度量等距离...)。 PCA 的优势在于您不需要太了解数据......我所知道的所有其他减少方法通常都会利用依赖项或数据的某些功能,但为此你需要知道高度细节的输入属性,我认为并非如此。