问题标签 [stanza]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 无法点安装手电筒
我试图pip install stanza
得到这个消息:
然后我运行pip install torch
并得到以下内容(该网站不会让我包含太多代码,所以这是完整的错误)
python - 如何使用“stanza”获得动词的不定式形式?
如何使用节找出句子中的不定式动词?
例子:
输出:
但是,在这一行中:
id: 5 word: find POS: VERB head id: 2 head: 需要 deprel: xcomp
我需要说它是一个不定式动词。
stanford-nlp - UnsupportedOperation: fileno 尝试通过节启动 corenlp 服务器时:(
对如何通过节启动 corenlp 客户端感到非常困惑。我无法让它同时在我的 Windows pc 和 ubuntu pc 上工作。环境变量对我来说似乎没问题,因为在“使用命令启动服务器:java [...]”它在两个系统上都获得了正确的路径(如下所示)。
这是来自 Windows 的日志,我使用带有 python 3.7 和 anaconda 的 jupyter notebook。是的,Java 已安装,其版本为 1.8.0_261-b12
两台机器上的错误代码看起来都一样,只是文件路径不同。
如果有人可以帮助我,我将不胜感激,如果没有 corenlp 工具,我在我的项目 atm 上无能为力。
python-3.7 - 如何为 python 3.7 安装 staza(此命令返回错误(!pip install stanza))
我正在尝试使用以下命令安装节以进行词形还原: !pip install stanza 但它返回以下错误。请帮助我是python的新手。
使用缓存的 stanza-1.1.1-py3-none-any.whl (227 kB) 收集节
错误:找不到满足要求的版本 torch>=1.3.0(来自节)(来自版本:0.1.2、0.1.2.post1、0.1.2.post2) =1.3.0(来自节)
nlp - 如何优化 Stanza 模型的内存占用
为了语言学习应用程序的目的,我正在使用 Stanza 从多种语言的文档中获取标记、引理和标签。这意味着我需要为不同的语言存储和加载许多 Stanza(默认)模型。
我现在的主要问题是,如果我想加载所有这些模型,内存需求对我的资源来说太多了。我目前在 AWS 上部署了一个运行 Stanza NLP 的 Web API。我希望将我的基础设施成本保持在最低水平。
一种可能的解决方案是在我需要运行脚本时一次加载一个模型。我想这意味着每次将模型加载到内存中都会有一些额外的开销。
我尝试的另一件事是使用我真正需要的处理器,这减少了内存占用,但没有那么多。
我尝试在 Github 和 Google 上查看开放和封闭的问题,但没有找到太多。
还有哪些其他可能的解决方案?
python - 尝试在 Jupyter 笔记本中安装 Stanza CoreNLP 界面时出现属性错误
我正在尝试在 Jupyter 笔记本中使用 Stanza。这是我使用的代码:
这段代码直接取自Colab notebook,这是一个关于 Stanza CoreNLP 界面的教程。
但是,当我在自己的 Jupyter 笔记本(Python 3.7.4)上运行它时,我收到以下错误:
发生在该行
在此之前的所有其他行都可以正常工作。检查文档表明这是 Python 2 中的一个问题,但我的 Jupyter 笔记本运行的是 3.7.4。这里有什么问题,我应该如何解决?
python - “错误:无法在端口 9000 上启动 CoreNLP 服务器”无法通过 stanza 使用 stanfordcorenlp
我尝试通过 stanza 使用 stanfordcorenlp,并将它们安装在 anaconda 中。但是当我尝试运行它时,我总是得到
在处理上述异常的过程中,又出现了一个异常:
我不知道发生了什么。请帮忙!
python - 如何使用 Stanza 用英语进行标记化
如果以中文输入,则节能够分隔文本(中文严重依赖于标记化和句子分割)。它输出以下内容。大致是这样划分的。
如果输出为英文,则以英文单词空间分隔。
例如,如果输入程序是“香港”,则输出将如下所示。
stanza - 如何计算 Stanza 列表中函数的 argmax?
我想知道是否有一个函数可以计算 Stanza 中f
的数字列表(整数、长整数、浮点数)上的函数的 argmax numbers
。
它将具有以下行为:
结果 :
谢谢!
python - 如何使用 Stanza 获取名词块
我以前用于Spacy
语言解析。Spacy 具有内置功能来获取noun_chunks
.
由于 spacy 没有Arabic
. 我正在尝试stanza
用于此目的。
我能够从中提取实体和标记,但无法使用节提取名词块。
我不想为此使用CoreNLP 服务器。
谁能帮我这个。谢谢