1

我目前正在使用谷歌云 NL api 进行一些分析新闻文章的测试。我最初很好奇文档大小是如何计算的,这里的搜索结果

Google Cloud Natural Language API - 如何计算文档大小?

其中提到它是构成句子量级的总和。

在我自己的测试中,我发现情况并非如此。有什么我可能做错了吗?


为清楚起见,我在 conda 环境中使用正在运行的 Python 3.7.3,并使用从 conda-forge 获得的 google-cloud-language。

document =types.Document(content = str, type = enums.Document.Type.PLAIN_TEXT)
sentiment = client.analyze_sentiment(document=document)

sentence_sents = sentiment.sentences
test_mag = 0
for sent_obj in sentence_sents:
     test_mag += sent_obj.sentiment.magnitude

print(sentiment.document_sentiment.magnitude)
print(test_mag)
4

1 回答 1

1

从另一个线程来看,有时可能只是绝对总和,但并非总是如此。

谷歌自然语言情感分析总分

“聚合的工作方式是将输入文本分解成更小的组件,通常是 ngram,这可能是文档讨论聚合的原因,但是,聚合不是简单的加法,不能将每个单独的情感值相加实体获得总分。”

我认为这是分数和幅度计算的情况。

于 2019-10-08T21:04:46.357 回答