问题标签 [parsey-mcparseface]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何使用 tensorflow 服务部署 parsey 的表兄弟
某处是否有说明或一些文档,或者有人可以描述如何在 Tensorflow 下使用 SyntaxNet 部署作为“Parsey's Cousins”(参见https://github.com/tensorflow/models/blob/master/syntaxnet/universal.md)的模型服务?即使只部署 Parsey 也是一项相当复杂的工作,在任何地方都没有真正记录在案,但是如何为额外的 40 种语言做到这一点呢?
python - 在子进程上调用 .wait() 会破坏我在子进程中调用的脚本
感谢您花时间阅读这篇文章。基本上我试图从子进程中调用syntaxnet 的parsey mcparseface。出于某种原因,除非我更改工作目录,否则它不会运行。我可以使用以下命令运行子进程。
问题是我还需要我的脚本等到 parsey 完成。所以我尝试使用等待命令
但由于某种原因,当使用 .wait() 或 .communicate() parsey mcparseface 时无法正确完成。
python - TF Syntaxnet 中的 DocumentSink、DocumentSource 操作实际上是如何工作的?
在浏览完代码之后......我可以将流程理解为......
在 parser_eval.py
并通过我发现的 gen_parser_ops.py
但我不明白下面的代码是如何将文档保存到文件中的。
如果有人可以帮助我提供有关如何使用 TensorFlow 的 op_def_lib 的小示例,那将是一个很大的帮助。
nlp - 如何测试 SyntaxNet 训练模型(西班牙语 UD)?
按照此处的说明为西班牙语-Ancora UD 语料库训练我自己的 SyntaxNet 模型并没有给我错误。
在所有步骤之后,它创建的最终文件是:
用于训练的 context.pbtxt 文件是来自 syntaxnet/models/parsey_universal 的文件。
然后,当我尝试parser.sh
从 syntaxnet/models/parsey_universal 调用测试它时返回几个错误:
然后我从这里下载了西班牙预训练模型。我检查了文件。似乎有两个文件丢失,预训练模型默认有它,但在我训练的那个文件中,这些文件丢失了。
所以我的问题是如何在 SyntaxNet 训练阶段获取这些文件?
还有其他方法可以生产它们吗?
我应该以不同的方式对其进行测试吗?
syntaxnet - 语法网 C++ API
我已经安装了 Syntaxnet 并解析了一些示例文件。我计划创建一个使用 Syntaxnet 解析输入文档的 C++ 应用程序。我搜索是否可以使用 Syntaxnet Net C++ API,但找不到。任何人都可以就如何使用 Syntaxnet 作为 API 提出建议。提前致谢。
syntaxnet - Syntaxnet / Parsey McParseface 仅声明性句子?
我似乎无法找到有关训练数据解析的详细信息;我假设它主要是(如果不是全部的话)在陈述句上。如果这是真的,那么 Syntaxnet / parsey 可能不是命令式句子的解决方案,例如教学文本。这是准确的吗?有什么适用于命令式句子结构的吗?
docker - 使用 Dockerfile 构建语法网络时出错
我使用 docker 文件 - Dockerfile 构建。它运行两个小时。然而,最后它显示——
执行了 17 个测试中的 0 个:跳过了 17 个。
我假设 docker build 没有正确执行,因为我也无法做到 -
echo 'Bob 给 Alice 带来了披萨。| 语法网/demo.sh
这再次导致错误。有没有其他人也面临同样的问题?
tensorflow - syntaxnet 词性标注模型
我正在尝试使(罗马尼亚语)语法网络模型在我的语料库的一部分上运行。我将解压缩的文件映射到 docker 容器中。当我运行用于标记化的脚本时:
cat sent.txt | syntaxnet/models/parsey_universal/tokenize.sh $MODEL_DIRECTORY/
我收到与丢失文件相关的核心转储错误,特别是 char-map。查看解压后的文件夹,我注意到那里确实没有字符映射文件(只有 char-ngram-map)。我在这里想念什么?如果档案确实缺少一些文件,那么它是如何上传到那里的?
谢谢
python - 获取句子单词之间的关系
我正在做一个基于自然语言理解的项目。所以,我目前正在做的是尝试将代词引用到它们各自的先行词,我正在为此建立一个模型。我已经完成了它的基本部分,但是要完成任务,我需要理解句子的叙述。所以我想要的是使用python中的API检查名词和宾语是否通过动词相互关联。
例子:
我听说过 nltk 的 wordnet API,但我不确定是否可以使用它来执行相同的操作。可以使用吗?另外,我有点钟意。
欢迎和赞赏任何建议。
注意:我正在使用 parsey-mcparseface 来打断句子。我可以用 nltk 做同样的事情,但 P-MPF 更准确。
** 为什么没有NLU
可用的标签?**
编辑1:感谢亚历克西斯,我想做的事情被称为“回指分辨率”。
nlp - Syntaxnet POS 标注器使用大小写
我想使用 Syntaxnet 来获取推文的 POS 标签(更具体地说,从文本中提取命名实体)。但是,Parsey McParseface 默认区分大小写。由于推文通常不使用大写字母,因此我正在考虑使用无大小写标记器。我在代码中发现了一些关于大写的东西,但我不确定是否以及如何使用它:
让我举个例子更清楚。考虑例句John gave the money to Maria
和john gave the money to maria
(带大小写和不带大小写):
带帽:
没有大写:
如您所见,Maria 是 NNP,而 maria(没有大写字母)是 NN。在提取命名实体时,将单词标记为 NN 还是 NNP 会有所不同。
有没有办法改善这一点?Syntaxnet 是否有无大小写的 Parsey McParseface?