问题标签 [syntaxnet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
syntaxnet - 如何只输出解析树
运行 syntaxnet 时,控制台会有很多输出。我想知道如何才能得到依赖数据。现在这是我的输出:
我想要做的是调用 python 脚本而不向控制台输出所有这些输出,只有 CONLL 数据。
syntaxnet - 如何忽略 SyntaxNet 上的注释字符?
在语法网上解析文本时,我想忽略注释字符。
例如,在下面的情况下,我想忽略<X>
和</X>
注释字符。
所以,我期待下一个输出。
SyntaxNet 不是有这样的功能吗?
windows - 在 Windows 上运行 Syntaxnet
有没有办法让 Syntaxnet 在 Windows 8 上运行。我是 Syntaxnet 和 Tensorflow 生态系统的新手。欢迎任何建议。谢谢你。
python - 在子进程上调用 .wait() 会破坏我在子进程中调用的脚本
感谢您花时间阅读这篇文章。基本上我试图从子进程中调用syntaxnet 的parsey mcparseface。出于某种原因,除非我更改工作目录,否则它不会运行。我可以使用以下命令运行子进程。
问题是我还需要我的脚本等到 parsey 完成。所以我尝试使用等待命令
但由于某种原因,当使用 .wait() 或 .communicate() parsey mcparseface 时无法正确完成。
python - 将来自 stdin 的文本作为参数传递给 Python 的 Shell 脚本
我有一个 json 文件,我必须在其上执行以下操作:
- 通过 Syntaxnet 仅运行 json 上的“文本”字段。
- 从 Syntaxnet 输出中,创建一个新的 json 字段,如下所示:
text_syntaxnet = [{'word' = <WORD1>, 'position = <word_position>, 'pos_tag' = <POS_TAG>}, {...........}]
- 将这个新的 json 字段添加到作为输入的原始 json 中。
我正在使用 Pig Streaming 进行此操作。我想将输入数据流式传输到parse.py
其内容为的函数:
的内容parse.sh
是:
我调用 parse.sh 的这段代码不起作用。休息所有的工作。我不确定这是命令的语法还是某些环境问题。请有人帮我调试这个问题。
注意:当我不在for line in sys.stdin
. parse.py
但我想这样做,因为我想逐行解析,然后创建 json 对象。
谢谢!
raspberry-pi - 在树莓派 3 上安装 Bazel
我正在尝试从 Raspberry Pi 3(B 型)的源代码构建 Bazel。我遇到错误
早些时候我尝试下载无法安装的可用 .deb 包(即使在强制架构之后,值得注意的是 Pi 3 是 armhf 64 系统),因为对 JDK7 的依赖没有解决。JDK7 不能通过 apt-get 获得。
我对Bazel 的理解,Protocol Buffer非常有限,请帮助我:
- 我可以采取的步骤在 Raspberry Pi 3 上成功构建 Bazel
- 有人可以这样做,或者我可以直接包含他们的任何存储库吗?
我认为构建的可能性很大,因为 Raspberry Pi 的 Tensorflow 存储库已成功安装在 Pi 3 上,我从这里获取
nlp - Syntaxnet 土耳其语语言数据集不存在的地图文件
我是 Syntaxnet 的新手,我尝试通过此处的说明使用预训练的土耳其语模型
Point-1:虽然我设置了 MODEL_DIRECTORY 环境变量,但 tokenize.sh 没有找到相关路径,它给出了如下错误:
第 2 点:因此,我通过评论 MODEL_DIR=$1 更改了 tokenize.sh 并设置我的土耳其语言模型路径,如下所示:
第 3 点:之后,当我按照指示运行它时,会出现如下错误:
我已经通过跟踪如下所示的链接模式下载了土耳其语包:download.tensorflow.org/models/parsey_universal/.zip 和我的语言映射文件列表,如下所示:
-rw-r----- 1 根 50646 Sep 22 07:24 char-ngram-map
-rw-r----- 1 根根 329 Sep 22 07:24 label-map
-rw-r----- 1 根 133477 Sep 22 07:24 morph-label-set
-rw-r----- 1 根 5553526 Sep 22 07:24 morpher-params
-rw-r----- 1 根根 1810 Sep 22 07:24morphology-map
-rw-r----- 1 根 10921546 Sep 22 07:24 parser-params
-rw-r----- 1 root root 39990 Sep 22 07:24 前缀表
-rw-r----- 1 root root 28958 Sep 22 07:24 后缀表
-rw-r----- 1 root root 561 Sep 22 07:24 tag-map
-rw-r----- 1 根 5234212 Sep 22 07:24 tagger-params
-rw-r----- 1 root root 172869 Sep 22 07:24 word-map
QUESTION-1: 我知道目录中没有字符映射文件,所以我得到了上面@ Point-3 写的错误。那么,是否有人对如何进行土耳其语测试有意见,例如,结果共享为 %93,363 的词性?
QUESTION-2: 如何找到土耳其语的字符映射文件?
QUESTION-3: 如果没有 char-map 文件,我是否必须通过跟踪SyntaxNet 的获取数据和训练指示的步骤进行训练?
QUESTION-4: 有没有办法生成 word-map、char-map... 等文件?是否是众所周知的word2vec方法,可用于生成能够被处理的地图文件。语法网标记器?
docker - Syntaxnet 规范文件和 Docker?
我正在尝试学习 Synatxnet。我让它通过 Docker 运行。但我真的不太了解 Synatxnet 或 Docker 程序。在Github Sytaxnet 页面上它说
SyntaxNet 模型是通过运行时标志(易于更改)和文本格式 TaskSpec 协议缓冲区的组合来配置的。演示中使用的规范文件位于 syntaxnet/models/parsey_mcparseface/context.pbtxt 中。
我究竟如何找到规范文件来编辑它?
我使用这些Instructions在 Docker 容器中编译了 SyntaxNet 。
tensorflow - 如何在语法网络模型中的 demo.sh 中运行多个示例
我想使用语法网络模型解析大量示例/句子。目前我正在使用 python subprocess 模块为每个示例运行 demo.sh 文件,这需要花费大量时间,因为它可能会一次又一次地加载所有经过训练的模型。请告诉我任何替代方案。
tensorflow - 在 bazel 构建系统中配置相互依赖的项目(例如 tensorflow)的正确方法,以便 proto 导入按原样工作?
正如标题所暗示的,我遇到了一个问题,即 proto import 语句似乎与正确的路径无关。具体来说,考虑一个 dir 中的目录结构(我们称之为 ~/base):
对于那些不熟悉的人,models
(如在https://github.com/tensorflow/models/中)将 tensorflow(https://github.com/tensorflow/tensorflow)作为 git 子模块,就像serving
. 由于这一点,再加上 tensorflow 的 git 子模块在不同的提交上并且有时不兼容,我已经从项目中删除了 gitsubmodule 并将它们符号链接到最顶层目录上的 tensorflow 存储库,以便我只能管理一个张量流回购而不是3。那是我做了以下事情:
现在我想在其中构建一个my-lib
依赖于serving
、tensorflow
和的目标models
。我将这些作为本地存储库添加到我的 WORKSPACE 中,如下所示(cat my-lib/WORKSPACE
):
这是我的构建文件(cat my-lib/nlp/BUILD
):
最后,这是构建 ( cd my-lib; bazel build nlp/nlp_parser --verbose_failures
) 的输出:
在 WORKSPACE 中将模块添加为 local_repository 以便原型导入工作的正确方法是什么?