我目前正在使用Google Cloud NL API进行一些测试,以分析新闻报道。最初,我对文档大小的计算方式感到好奇,然后在这里进行搜索
其中提到的是构成句子大小的总和。
在我自己的测试中,我发现情况并非如此。我有什么事做错了吗?
为清楚起见,我在从conda-forge获得的google-cloud-language的conda环境中使用正在运行的Python 3.7.3。
document =types.Document(content = str, type = enums.Document.Type.PLAIN_TEXT)
sentiment = client.analyze_sentiment(document=document)
sentence_sents = sentiment.sentences
test_mag = 0
for sent_obj in sentence_sents:
test_mag += sent_obj.sentiment.magnitude
print(sentiment.document_sentiment.magnitude)
print(test_mag)
答案 0 :(得分:0)
在另一个线程中,有时可能只是绝对总和,但并非总是如此。
Google Natural Language Sentiment Analysis Aggregate Scores
“聚合的工作方式是将输入文本分解为较小的部分(通常为ngram),这很可能是文档讨论聚合的原因,但是,聚合不是简单的加法,不能总结个人情绪以获得每个实体的总分。”
我认为分数和幅度计算就是这种情况。