使用GPT2在现有文本中插入单词以“修饰”它

时间:2019-06-14 10:50:32

标签: python nlp pytorch

对于rpg任务生成器,我有一个简单的句子,例如

  

“彼得必须与恶魔战斗才能挣脱。”

我想做的就是修饰这些句子,以便得到类似的东西。

  

“在半夜里,彼得受到惊吓,但他知道他必须拿起剑来与强大的恶魔战斗才能最终挣脱。”

我做了很多实验,包括huggingface的预训练好的bert库(https://github.com/huggingface/pytorch-pretrained-BERT),并通过在我的简单句子中添加 [MASK] 标记,设法使用预训练的BERT模型生成了一些简单的文本。

由于BERT提供了屏蔽程序,因此可以轻松插入文本,但与例如赶上独角兽http://gltr.io/)。我在句子中添加了很多重复和标点符号,但这些句子和标点符号确实不合适。

现在,我想尝试GPT2,因为它被告知对文本生成而言要好得多,但是我不知道如何在没有掩饰功能的情况下增强/修饰现有句子,而掩饰功能似乎不是在faceface的GPT2类中不存在。 / p>

有人知道我该如何前进吗?

0 个答案:

没有答案