问题标签 [natural-language-processing]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 使用相关和随机语料库计算 TF-IDF 单词分数
给定一个相关文档的语料库 (CORPUS) 和一个随机文档的语料库 (ran_CORPUS),我想使用 ran_CORPUS 作为基线计算 CORPUS 中所有单词的 TF-IDF 分数。在我的项目中,ran_CORPUS 的文档数量大约是 CORPUS 的 10 倍。
我的计划是规范化文档,将 CORPUS 中的所有文档制作成一个文档(CORPUS 现在是一个包含一个长字符串元素的列表)。对于 CORPUS,我附加了所有 ran_CORPUS 文档。然后使用sklearn's TfidfTransformer
I 计算语料库的 TF-IDF 矩阵(现在由 CORPUS 和 ran_CORPUS 组成)。最后选择该 CORPUS 的第一行以获得我最初相关 CORPUS 的 TF-IDF 分数。
有谁知道这种方法是否可行以及是否有一种简单的编码方法?
python - Getting vector obtained in the last layer of CNN before softmax layer
I am trying to implement a system by encoding inputs using CNN. After CNN, I need to get a vector and use it in another deep learning method.
The above code, trains the model using X_train
and Y_train
and then tests it. However in my system I do not have Y_train
or Y_test
, I only need the vector in the last hidden layer before softmax layer. How can I obtain it?
python - 我们可以将 .txt 文件导入 python 吗?
我是python的新手。我有一个问题,我们如何将 .txt 文件导入 python?我有一个 .txt 文件,里面有很多文本供我用 NLTK 分析。你能告诉我如何开始分析文本吗?先感谢您
nlp - 依赖解析器失败的示例
谁能给我几句话关于依赖解析器何时失败以及为什么失败以及解决方法是什么?
tensorflow - BahdanauAttention 中的 num_units 参数是什么?
我不明白num_units
TensorFlow 的 BahdanauAttention 中的论点。它定义为:
num_units:查询机制的深度。
我不清楚。
machine-learning - How can I create a bot able to ask for multiple values in a single prompt?
Imagine I want to create a bot to attend a pizza delivery service. But I would like to handle if a customer want ask multiple ingredients like:
I have tried AWS Lex, but a single intent can handle a single value per slot.
What framework and facility can I use to do that?
python - 使用 TfidfVectorizer 进行自然语言处理
我正在读取文件 train1.txt 中的字符串。但是当尝试执行语句 tfidf.fit(dataset) 时,它会导致错误。我无法完全修复错误。寻求帮助。
错误日志:
python - 使用 get_word_forms,我如何生成单词列表的所有可能形式?
我正在努力生成下面列表中所有可能形式的单词
例如,
从 word_forms.word_forms 导入 get_word_forms
text = ['courses', 'unsurpassable', 'alcohol'] a = [get_word_forms(word) for word in text] print(a)
[{'n':{'课程','课程','课程','课程'},'a':set(),'v':{'课程','课程','课程',' coursed'}, 'r': {'course'}}, {'n': set(), 'a': {'unsurpassable'}, 'v': set(), 'r': set()} , {'n': {'alcohols', '酒鬼', '酒鬼', '酒精'},
最后,我得到了上面的结果......但是,我想将它保存到一个 csv 文件中,但我找不到实现这一点的方法。
请让我知道除了包之外是否还有另一种解决方案“get_word_forms”来生成单词的所有可能形式。
machine-learning - 对产品评论的无监督情绪分析
我想对客户在不同产品网页上发布的评论进行无监督的情绪分析。大多数在线资源使用监督方法,示例/教程总是有一个标记的训练数据集。
我的目标不仅仅是推断评论的极性,还要进行内容/主观分析。任何在线实施或为此建议高级方法?