我正在着手进行情绪分析的 NLP 项目。
我已经成功地为 python 安装了 NLTK(这似乎是一个很棒的软件)。但是,我无法理解如何使用它来完成我的任务。
这是我的任务:
- 我从一个很长的数据开始(让我们从他们的网络服务中说数百条关于英国大选主题的推文)
- 我想把它分解成句子(或信息不超过 100 个左右的字符)(我想我可以在 python 中做到这一点??)
- 然后在所有句子中搜索该句子中的特定实例,例如“David Cameron”
- 然后我想检查每个句子中的正面/负面情绪并相应地计算它们
注意:我不太担心准确性,因为我的数据集很大,也不太担心讽刺。
以下是我遇到的麻烦:
我能找到的所有数据集,例如 NLTK 附带的语料库电影评论数据,都不是 web 服务格式。看起来这已经完成了一些处理。据我所知,处理(由斯坦福大学)是用 WEKA 完成的。NLTK 不可能自己做这一切吗?这里所有的数据集已经被组织成正/负,例如极性数据集http://www.cs.cornell.edu/People/pabo/movie-review-data/这是怎么做的?(按情感来组织句子,肯定是WEKA吗?还是别的什么?)
我不确定我是否理解为什么 WEKA 和 NLTK 会一起使用。似乎他们做的事情大致相同。如果我首先使用 WEKA 处理数据以查找情绪,为什么我需要 NLTK?是否有可能解释为什么这可能是必要的?
我发现了一些与此任务有些接近的脚本,但它们都使用相同的预处理数据。是否可以自己处理这些数据以查找句子中的情绪,而不是使用链接中给出的数据样本?
非常感谢任何帮助,这将为我节省很多头发!
干杯柯