Watson / Alchemy情绪分析在某些情况下被误认为是否定的

时间:2016-03-21 19:11:22

标签: ibm-watson alchemyapi

我正在使用Watson / Alchemy情感分析API,并发现一些文章被标记为否定,当文章可以说是积极的。当文章讨论好的或有益的减少时会发生这种情况。

例如,this Washington Post article,“我们在美国的枪支暴力事件大幅下降。这就是原因。”当提交给API时,它会返回-0.4的分数,即使该文章非常乐观! (文章认为枪支暴力行为显着下降。)

另一个例子是this article from CoreLogic,“CoreLogic在2016年1月报告了38,000个已完成丧失抵押品赎回权。”即使文本是正面的,API也会返回-0.27的文档情绪分数:“...止赎库存下降了21.7%,完成止赎比2015年1月下降了16.2%。全国已完成取消抵押品赎回权的数量逐年减少年从2015年1月的46,000增加到2016年1月的38,000。“

是否有解决此问题的既定解决方法?具体来说,我们不希望损害服务的可信度,因此当细心的读者评估这些文章的情绪时,我们的结果与API建议完全不同。我正在寻找能够修改特定案件情绪结果的东西(例如“取消抵押品赎回权的减少”是正面的,“杀人案减少”也是如此)。

1 个答案:

答案 0 :(得分:1)

我认为这很正常:-)非常罕见的情绪分析算法可以在100%的结果中给你正确的答案:-)我不知道算法实现,但我的赌注是情绪是根据表达和词语的“情绪”计算出来的。例如,大多数可能是“枪支”,“暴力”可能与消极情绪有关,但沃森可能未能理解他们与“大幅下降”有关(即使“下降”也可能有负面情绪)。

即使是最先进的情感分析算法,对于非常特定的领域,也可以达到约85%~90%的准确率。因此,根据这一点设定您的期望始终很重要。