如何在python中组合自组织映射和多层感知器

时间:2017-03-06 12:35:13

标签: python neural-network cluster-analysis image-recognition self-organizing-maps

我正在使用python中的图像识别项目。我在期刊中读到,如果将自组织地图(SOM)执行的聚类输入监督神经网络,则图像识别的准确性与其自身的监督网络相比得到改善。我自己试过这个,通过使用SOM进行聚类,然后在每次迭代后使用获胜神经元的坐标作为来自keras的多层感知器的输入。但是准确性很差。

应该使用什么输出的SOM作为多层感知器的输入?

2 个答案:

答案 0 :(得分:1)

使用SOM的另一种方法是矢量量化。而不是使用获胜的SOM坐标,使用获胜神经元的码本值。不确定你正在阅读哪些文章,但我会说SOM进入MLP只会在某些情况下提供更好的准确性。此外,您还需要明智地选择维度和地图大小等参数。

对于图像处理,我会说自动编码器或卷积神经网络(CNN)是SOM的更先进的替代方案,可以调查您是否未在SOM + MLP架构上确定。

答案 1 :(得分:0)

我一直想知道是否有任何里程来训练单独的监督神经网络用于映射到SOM中每个节点的输入。然后,您可以对映射到每个SOM节点的输入数据的子集进行单独的监督学习。连接到每个节点的网络可能比一个必须处理整个输入空间的大型网络更小且更容易训练。包括映射到相邻SOM节点的输入向量也可能有好处。

是否有人意识到这是研究的主题?