我的RNN的第一层是嵌入式层,如下所示。
visible = Input(shape=(250,))
embed=Embedding(vocab_size,50)(visible)
x2=keras.layers.GRU(224, return_sequences=False)(embed)
predictions=Dense(1, activation='sigmoid')(x2)
我训练该网络并预测一些输出。
现在,经过培训后,我将在非常简单的测试数据上对其进行测试。
我想知道我的测试数据的确切嵌入,或者为了实现,我想知道模型训练后我的任何测试序列的嵌入。我想将其嵌入其他应用程序中。训练后有什么方法可以提取我的测试序列数据的嵌入内容?
尝试:假设我的模型是m,我将获得嵌入权重,如下所示。
embeddings = m.layers[1].get_weights()
我还有一个反向字典reverse_char_map
,如下所示。
{1: 'c',
2: 'C',
3: '(',
4: ')',
5: 'O',
6: '=',
7: '1',
8: '2',
9: 'N',
10: '3',
11: 'n',
12: '[',
13: ']',
14: 'S',
15: '4',
16: '-',
17: 'l',
18: '+',
19: 'H',
20: '5',
21: 'F',
22: '.',
23: '#',
24: 's',
25: 'o',
26: '6',
27: 'P',
28: 'B',
29: 'r',
30: 'a',
31: '7',
32: 'e',
33: 'I',
34: 'i',
35: '8',
36: 'u',
37: 'K',
38: '9',
39: 'R',
40: '%',
41: '0',
42: 'Z',
43: 'h',
44: 'L',
45: 'A',
46: 't',
47: 'd',
48: 'G',
49: 'M',
50: 'g',
51: 'U',
52: 'b',
53: 'T',
54: 'W',
55: 'p',
56: 'V'}
我不知道如何将embeddings
与reverse_char_map
一起使用来获得测试输入序列之一的嵌入。
答案 0 :(得分:1)
您可以命名上述各层,如下所示:
visible = Input(shape=(250,), name='visible')
embed=Embedding(vocab_size,50,name='embed')(visible)
x2=keras.layers.GRU(224, return_sequences=False, name='x2')(embed)
predictions=Dense(1, activation='sigmoid', name='final')(x2)
然后,由这些层组成的模型(我们称其为m1)可用于初始化新模型,您可以在其中引用这些层,如下所示:
def evaluation_model(training_model):
visible = training_model.get_layer('visible')
embed = training_model.get_layer('embed')
output = embed(visible)
m = Model(inputs=[visible], outputs=[output]
m.compile(..)
return m
em = evaluation_model(m1)
或者,您可以简单地弹出初始模型的最后几层,也可以让它输出嵌入内容,而不会造成任何损失。