如何实现输入单词/字符嵌入的堆叠式LSTM自动编码器?

时间:2019-05-20 09:21:59

标签: keras nlp lstm autoencoder

我正在尝试实现一个堆叠的LSTM自动编码器,该编码器将字符嵌入和单词嵌入作为单独的输入输入,以返回与2个单独的输出相同的结果。

现在,我将单词embeddings作为通用输入传递给LSTM上层(u)和下层(l)。

#include <iostream>

class A
{
    void funct_1(int a, void (A::*f)(int))
    {
        (A::*f)(a);
    }

public:

    void funct_2(int k)
    {
        // do something
    }

    void funct_3(int k)
    {
        // do something
    }

    void funct_4(int k)
    {
        // some reason to use the function argument functionality...
        if (k % 2)
            funct_1(k, funct_2);
        else
            funct_1(k, funct_3);
    }
};

int main()
{

    A a;

    a.funct_4(4);

    return 0;
}

错误:

simpleautoencoder.py”,在autoencoderBrainModel中的第38行     u3 = LSTM(150,return_sequences = True)(u2)

ValueError:输入0与lstm_2层不兼容:预期ndim = 3,找到ndim = 4

image[1]

我也在其他层的输出上不断出现错误。如何确定整体网络结构?

0 个答案:

没有答案