问题标签 [nltk-book]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 'str' 对象在 NLTK 中不可调用
错误:如果 type(chunk) == nltk.tree.Tree 和 chunk.label() == "DataChunk": TypeError: 'str' object is not callable
但是我可以打印chunk.label()
python - nltk "OMW" wordnet 与阿拉伯语
我正在使用专门针对阿拉伯语的(OMW)wordnet 开发 python/nltk。所有功能都可以在英语中正常工作,但是当我使用“arb”标签时,我似乎无法执行其中的任何一个。唯一有效的方法是lemma_names
从给定的阿拉伯语同义词集中提取。
下面的代码适用于 u'arb':输出是阿拉伯引理的列表。
当我尝试使用同义词集、定义、示例、上位词执行与上述代码相同的逻辑时,我收到一条错误消息:
(如果我提供'arb'
标志)或
如果我写,这是将不起作用的代码之一 synset.hyponyms(u'arb')
:
这是否意味着我无法使用 wn.all_synsets 和其他内置函数来提取所有阿拉伯语同义词、上位词等?
python - Steven Bird 书中 nltk.TaggerI 的功能
我目前正在使用 Python 浏览 Steven Bird 的 NLP。我有个问题。nltk.TaggerI 的作用是什么?它在第 6 章的示例 6-5 中。
我希望对此有更好的了解。谢谢
python-3.x - 字典在python中没有正确排序
我的代码应该输出语料库中频率最高的前 10 个单词。但是,它给出了 10 个随机单词的输出。
当前的输出低于错误:
请帮助
python - 如何处理字符之间有空格的单词?
我正在使用达nltk.word_tokenize
里语。问题是我们在一个单词之间有空格。
例如"زنده گی"
表示生命的词。和相同的; 我们还有很多别的词。所有以字符结尾的单词"ه"
我们必须给它一个空格,否则,它可以组合,例如"زندهگی"
。
任何人都可以帮助我使用[tag:regex]
或任何其他方式不应该标记一个单词的一部分以结尾的单词,"ه"
然后,就会有这个"گ "
字符。
python-3.x - 在应用 ngram 之前理解输入文本的最佳方法
目前我正在从excel文件中读取文本并将bigram应用到它。finalList具有以下示例代码中使用的列表,具有从输入 excel 文件中读取的输入单词列表。
在以下库的帮助下从输入中删除了停用词:
应用于单词输入文本列表的二元逻辑
输入文本:我完成了端到端的流程。
当前输出:已完成结束,结束结束,结束过程。
期望的输出:完成端到端、端到端的过程。
这意味着像 (end-to-end) 这样的一组词应该被视为 1 个词。
python - ntlk TypeError:预期的字符串或类似字节
当我尝试使用 nltk 包中的 sent_tokenize 时,我有 TypeError: expected string or bytes-like object
这是我的代码:
你能帮我吗 ?非常感谢
python - 从 github repo 设置 nltk 数据
我正在关注nltk 书第 1 章。我能够安装nltk
( import nltk
) 但无法通过运行下载图书语料库nltk.download()
。它给了我getattrinfo failed
错误。所以我开始快速浏览本章中的命令而不执行这些命令,因为给出的大多数示例都需要书籍语料库。
但现在我想尝试FreqDist
示例。
跑的时候FreqDist
,我意识到我还没有做from nltk.book import *
。所以,我再次尝试安装书籍语料库。现在,我完全厌倦了尝试各种帖子中给出的不同解决方案来修复getattrinfo failed
导入 nltk 数据时发生的错误。(我尝试设置公司代理,更改 nltk 下载器源链接等许多东西)
因此,我没有遵循使用 nltk 下载器的路线,而是尝试做一些可能很奇怪的事情。我从 下载ziphttps://github.com/nltk/
,解压缩然后setup.py
在其中运行。
现在当我运行时from nltk.book import *
,我得到以下输出:
我手动复制粘贴的nltk
文件夹也包含book.py
在上面列出的各种文件夹中:
但是没有用。如何从 github 下载的 zip 将这本书导入到我的解释器环境中,而不需要使用 nltk 下载器?甚至可能吗?