Tensorflow RNN文本生成示例教程

时间:2019-11-09 18:41:58

标签: python recurrent-neural-network tensorflow2.0

看看本教程here,他们使用“ Romeo:”的开始顺序。

int(generate_text(model, start_string=u"ROMEO: "))

但是,从实际生成步骤来看,可以说仅使用最后一个字符“”公平吗?因此,无论我们使用“ ROMEO:”还是仅使用“”,都是一样的?从输出分布中采样时很难进行测试...

相对而言,由于原始训练序列更长,因此尚不清楚如何根据如此短的字符串进行预测。我了解如果我们训练了100个字符的历史,那么我们会预测101个字符,然后使用2-101预测102个字符...但是,它如何仅以7个字符开头?

EDIT

作为一个具体示例,我将模型重新设计为以下形式:

    model = tf.keras.Sequential()
model.add(tf.keras.layers.SimpleRNN(units=512, input_shape = (seq_len, 1), activation="tanh"))
    model.add(tf.keras.layers.Dense(len(vocab))) 
    model.compile(loss=loss, optimizer='adam')
    model.summary()

注意,我使用了simpleRNN而不是GRU并放弃了嵌入步骤。这两个更改都是为了简化模型,但这无关紧要。

我的训练和输出数据如下:

>>> input_array_reshaped
array([[46., 47., 53., ..., 39., 58.,  1.],
       [ 8.,  0., 20., ..., 33., 31., 10.],
       [63.,  1., 44., ..., 58., 46., 43.],
       ...,
       [47., 41., 47., ...,  0., 21., 57.],
       [59., 58.,  1., ...,  1., 61., 43.],
       [52., 57., 43., ...,  1., 63., 53.]])
>>> input_array_reshaped.shape
(5000, 100)

>>> output_array_reshaped.shape
(5000, 1, 1)

>>> output_array_reshaped
array([[[40.]],

       [[ 0.]],

       [[56.]],

       ...,

       [[ 1.]],

       [[56.]],

       [[59.]]])

但是,如果我尝试预测少于100个字符的字符串,则会得到:

ValueError: Error when checking input: expected simple_rnn_1_input to have shape (100, 1) but got array with shape (50, 1)

以下是我的预测功能(如果需要)。如果我将required_training_length更改为100以外的任何值,它将崩溃。它要求“特定”的时间步长为100。

有人可以告诉我如何调整模型以使其像示例中那样更加灵活吗?我想念什么精妙之处?

def generateText(starting_corpus, num_char_to_generate = 1000, required_training_length = 100):
    random_starting_int = random.sample(range(len(text)),1)[0]
    ending_position = random_starting_int+required_training_length

    starting_string = text[random_starting_int:ending_position]
    print("Starting string is: " + starting_string)
    numeric_starting_string = [char2idx[x] for x in starting_string]
    reshaped_numeric_string = np.reshape(numeric_starting_string, (1, len(numeric_starting_string), 1)).astype('float32')


    output_numeric_vector = []
    for i in range(num_char_to_generate): 
        if i%50 == 0:
            print("Processing character index: "+str(i))
        predicted_values = model.predict(reshaped_numeric_string)
        selected_predicted_value = tf.random.categorical(predicted_values, num_samples = 1)[0][0].numpy().astype('float32') #sample from the predicted values
        #temp = reshaped_numeric_string.copy()
        output_numeric_vector.append(selected_predicted_value)
        reshaped_numeric_string = np.append(reshaped_numeric_string[:,1:,:], np.reshape(selected_predicted_value, (1,1,1)), axis = 1)

    predicted_chars = [idx2char[x] for x in output_numeric_vector]
    final_text = ''.join(predicted_chars)
    return(final_text)

1 个答案:

答案 0 :(得分:1)

但是,看看实际的生成步骤,可以这样说吗? 仅使用最后一个字符“”?因此,无论我们是否 使用“ ROMEO:”还是仅使用“”?由于它是从 输出分布...

否,它正在考虑所有字符。您可以轻松地 通过使用固定的随机种子来验证:

from numpy.random import seed
from tensorflow.random import set_seed
seed(1)
set_seed(1)
print('======')
print(generate_text(m, 'ROMEO: '))
seed(1)
set_seed(1)
print('======')
print(generate_text(m, ' '))

目前尚不清楚如何在这么短的时间内做出预测 字符串,因为原始训练序列要长得多。一世 了解我们是否接受过100个字符的训练,我们可以预测 101st,然后使用2-101来预测102 ...但是它如何开始 仅有7个字符?

它在内部循环运行序列。首先 角色并预测第二个。然后第二个预测 第三等等。这样做时,它会更新其隐藏状态,以便 它的预测越来越好。最终高原 因为它不记得任意长序列。