我想知道在Tensorflow的seq2seq框架中是否有办法,我可以知道是否可以x%置信度给出对输入的回复。
以下示例:
我有hi
作为对hello
的回复。它工作正常。我还有很多其他训练有素的句子。但是,让我说我输入一些这样的垃圾 - sdjshj sdjk oiqwe qw
。 Seq2seq仍然试图给出回应。我理解它是这样设计的,但我想知道是否有一种方式表明框架无法自信地回答这个问题。或者没有训练这样的词语。
这将有很大的帮助。
答案 0 :(得分:3)
在输出logits上使用logistic函数(或sigmoid): 因为logit函数基本上是sigmoid函数的反函数:
Logit功能:
你可以看到它是相似的。在张量流中。有sigmoid函数,但是当你只编写sigmoid函数时我发现程序更快:
如果使用sigmoid功能。您将获得一个从0到1的值,这是您正在寻找的信心。更多信息可以在这里找到:
答案 1 :(得分:0)
我认为average perplexity
返回的seq2seq_model.model.stop
是自信,越小越好。但人们很难说出一个合适的门槛。