问题标签 [dependency-parsing]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - CoreNLP:找不到与所说词相关的节点
在运行 CoreNLP 时,我经常在 stderr 中看到:
这似乎发生在将引语连接到其说话者的动词上,这对于我的应用程序,引语提取/表征来说非常令人担忧。
(编辑)这个警告在实践中意味着什么?这是一个已知问题吗?有解决办法吗?
nlp - 段落的依赖解析图
我正在做一个 NLP 项目。我想为整个段落而不是句子创建一个依赖解析图。是否有相同的现有方法?
parsing - 俄语的现代依赖解析器
是否有任何用于俄语的现代词性标注器 + 依赖解析器?我需要一个能够处理纯文本和输出的工具或服务:
- 分句
- 划分为令牌
- 词性标签(欢迎使用细粒度的 MSD 标签)
- 引理(基本形式)
- 依赖角色标签
我需要该工具用于商业目的。它可以是具有训练有素的统计模型的开源项目,可用于商业目的(如果需要,可购买)或 Web API。最终它可能是具有专有模型的专有闭源二进制文件。俄语的解析模型比我在网上找到的都需要使用 TreeTagger,它 1)具有非常不友好的许可证,2)超过 20 年。
java - 关于训练 Maltparser 模型的问题
我正在尝试为孟加拉语训练 Maltparser 模型。我用 Conllu 格式注释了一个小型语料库。但它给了我空指针错误。所以我尝试了从 UD 网站收集的一些树库。它适用于这些数据集。我的问题是
我可以在没有 XPOSTAG 的情况下训练 Maltparser 模型吗,我已经注释了 UPOSTAG 字段,而 XPOSTAG 字段只是 UPOSTAG 的副本。我需要注释 XPOSTAG 吗?这是我的树库和 UD 树库之间的唯一区别
出于评估目的,我可以自动将 UPOSTAG 转换为 XPOSTAG 吗?
参考:http ://universaldependencies.org/format.html
为了更好地理解,我举了我的银行和 UD 银行的例子
我的示例银行(有错误和一些空白字段)(语言是孟加拉语)
UD银行
statistics - CS实验中非确定性的量化
大家好,
我正在写我的计算机科学硕士论文。更具体地说,我正在研究在用作统计依赖解析器中的特征时调整分布式语义模型的超参数的效果。我正在使用 word2vec,一种基于非确定性神经网络的词嵌入软件。为了能够验证我的结果,我必须量化模型中的非确定性程度。
然而,我确实认为这个问题可以在更抽象的层面上提出——我可以使用什么测试来量化统计模型中的非确定性程度?例如,当我进行五次相同的实验时,我得到以下结果:
我如何确定我的系统的“不确定性如何”并将其用作接受或丢弃未来实验结果的基础?
stanford-nlp - 斯坦福依赖解析器训练数据格式
我想在斯坦福依赖解析器中添加一种新语言,但我一生都无法弄清楚如何做。
训练数据应该采用什么格式?如何生成新的语言文件?
python-3.x - 尝试使用斯坦福依赖关系解析树
嗨,我正在尝试将令牌转换为他的格式:
token(index=1, form='some', cpos='DT', pos='DT', head=3, deprel='det') Token(index=2, form='blue', cpos='JJ ', pos='JJ', head=3, deprel='amod') Token(index=3, form='moose', cpos='NN', pos='NN', head=0, deprel='root ')
当通过“一些蓝色驼鹿”时。当我运行以下代码时
对于 convert_tree(),我得到了错误。
文件“D:\ABC\anaconda\lib\site-packages\StanfordDependencies\SubprocessBackend.py”,第 127 行,在 _raise_on_bad_exit_or_output 中引发 ValueError("Bad exit code from Stanford CoreNLP") ValueError: Bad exit code from Stanford CoreNLP
有人可以帮我解决这个问题。
stanford-nlp - 使用 Parsey 的依赖解析器检测问题
有没有办法单独使用 Parsey 的依赖解析器来检测句子中是否存在问题?常规的 stanford 解析器为问题提供 SBARQ 或 SQ 标记。parsey 的依赖解析器有什么类似的吗?
python-3.x - 带有 NLTK 的斯坦福依赖解析器:UnicodeDecodeError:
我正在尝试运行以下代码行:
并在线:
我收到以下问题:
Traceback(最近一次调用最后):文件“C:/Users/Norbert/PycharmProjects/untitled/StanfordDependencyParser.py”,第 21 行,在 print([parse.tree() for parse in dep_parser.raw_parse(sentence)]) 文件中“C:\Users\Norbert\AppData\Local\Programs\Python\Python36\lib\site-packages\nltk\parse\stanford.py”,第 134 行,在 raw_parse 返回下一个(self.raw_parse_sents([sentence],详细)) 文件“C:\Users\Norbert\AppData\Local\Programs\Python\Python36\lib\site-packages\nltk\parse\stanford.py”,第 152 行,在 raw_parse_sents 中返回 self._parse_trees_output(self._execute( cmd, '\n'.join(sentences), verbose)) 文件“C:\Users\Norbert\AppData\Local\Programs\Python\Python36\lib\site-packages\nltk\parse\stanford.py”,行218,在_execute stdout=PIPE, stderr=PIPE) 文件“C:\Users\Norbert\AppData\Local\Programs\Python\Python36\lib\site-packages\nltk\internals.py”,第 135 行,在 java print(_decode_stdoutdata(stderr)) 文件“C:\Users\Norbert\AppData \Local\Programs\Python\Python36\lib\site-packages\nltk\internals.py",第 737 行,在 _decode_stdoutdata 返回 stdoutdata.decode(encoding) UnicodeDecodeError: 'utf-8' codec can't decode byte 0xac in position 3097: 无效的起始字节t 解码位置 3097 中的字节 0xac:无效的起始字节t 解码位置 3097 中的字节 0xac:无效的起始字节
知道有什么问题吗?我什至不处理任何非 utf-8 文本。