我是 Syntaxnet 的新手,我尝试通过此处的说明使用预训练的土耳其语模型
Point-1:虽然我设置了 MODEL_DIRECTORY 环境变量,但 tokenize.sh 没有找到相关路径,它给出了如下错误:
root@4562a2ee0202:/opt/tensorflow/models/syntaxnet# echo "Eray eve geldi." | syntaxnet/models/parsey_universal/tokenize.sh
F syntaxnet/term_frequency_map.cc:62] Check failed: ::tensorflow::Status::OK() == (tensorflow::Env::Default()->NewRandomAccessFile(filename, &file)) (OK vs. **Not found: label-map**)
第 2 点:因此,我通过评论 MODEL_DIR=$1 更改了 tokenize.sh 并设置我的土耳其语言模型路径,如下所示:
PARSER_EVAL=bazel-bin/syntaxnet/parser_eval
CONTEXT=syntaxnet/models/parsey_universal/context.pbtxt
INPUT_FORMAT=stdin-untoken
MODEL_DIR=$1
MODEL_DIR=syntaxnet/models/etiya-smart-tr
第 3 点:之后,当我按照指示运行它时,会出现如下错误:
root@4562a2ee0202:/opt/tensorflow/models/syntaxnet# echo "Eray eve geldi" | syntaxnet/models/parsey_universal/tokenize.sh
I syntaxnet/term_frequency_map.cc:101] Loaded 29 terms from syntaxnet/models/etiya-smart-tr/label-map.
I syntaxnet/embedding_feature_extractor.cc:35] Features: input.char input(-1).char input(1).char; input.digit input(-1).digit input(1).digit; input.punctuation-amount input(-1).punctuation-amount input(1).punctuation-amount
I syntaxnet/embedding_feature_extractor.cc:36] Embedding names: chars;digits;puncts
I syntaxnet/embedding_feature_extractor.cc:37] Embedding dims: 16;16;16
F syntaxnet/term_frequency_map.cc:62] Check failed: ::tensorflow::Status::OK() == (tensorflow::Env::Default()->NewRandomAccessFile(filename, &file)) (OK vs. **Not found: syntaxnet/models/etiya-smart-tr/char-map**)
我已经通过跟踪如下所示的链接模式下载了土耳其语包:download.tensorflow.org/models/parsey_universal/.zip 和我的语言映射文件列表,如下所示:
-rw-r----- 1 根 50646 Sep 22 07:24 char-ngram-map
-rw-r----- 1 根根 329 Sep 22 07:24 label-map
-rw-r----- 1 根 133477 Sep 22 07:24 morph-label-set
-rw-r----- 1 根 5553526 Sep 22 07:24 morpher-params
-rw-r----- 1 根根 1810 Sep 22 07:24morphology-map
-rw-r----- 1 根 10921546 Sep 22 07:24 parser-params
-rw-r----- 1 root root 39990 Sep 22 07:24 前缀表
-rw-r----- 1 root root 28958 Sep 22 07:24 后缀表
-rw-r----- 1 root root 561 Sep 22 07:24 tag-map
-rw-r----- 1 根 5234212 Sep 22 07:24 tagger-params
-rw-r----- 1 root root 172869 Sep 22 07:24 word-map
QUESTION-1: 我知道目录中没有字符映射文件,所以我得到了上面@ Point-3 写的错误。那么,是否有人对如何进行土耳其语测试有意见,例如,结果共享为 %93,363 的词性?
QUESTION-2: 如何找到土耳其语的字符映射文件?
QUESTION-3: 如果没有 char-map 文件,我是否必须通过跟踪SyntaxNet 的获取数据和训练指示的步骤进行训练?
QUESTION-4: 有没有办法生成 word-map、char-map... 等文件?是否是众所周知的word2vec方法,可用于生成能够被处理的地图文件。语法网标记器?