0

我正在使用斯坦福的 Stanza,但我找不到任何关于如何加载文档而不是字符串的文档。

例如,对于一个字符串,它的工作方式如下:

nlp_pos = stanza.Pipeline('it',processors='tokenize,mwt,pos,lemma,depparse')
doc = nlp_pos("hello how are you")

对于一个文件,我认为它会是这样的:

nlp_pos = stanza.Pipeline('it',processors='tokenize,mwt,pos,lemma,depparse')
filename = "example.txt"
with open(filename, 'r') as f:
doc = f.read()

但它不起作用。什么是替代方案?

4

2 回答 2

0

@fpohlmann 的回答应该可以,但不会关闭文件句柄。

只需对原始代码片段进行最少的编辑,就可以通过以下方式处理文件

nlp_pos = stanza.Pipeline('it',processors='tokenize,mwt,pos,lemma,depparse')
filename = "example.txt"
with open(filename, 'r') as f:
    doc = nlp_pos(f.read())

doc并以与处理字符串的对象相同的方式访问注释信息。实际上,这个片段只是将该文件的全部内容读入一个字符串,然后将其传递给 Stanza。

于 2020-08-14T00:24:12.973 回答
0

这是一个示例,稍微改编自 Stanza 文档。我创建了一个文件句柄,并将其传递给 doc = nlp(....)。注意:我不是在写入原始文件 (Stanza_No_Tags.txt),而是写入一个新文件 (Stanza_Tokenized.txt)。YMMV。

nlp = stanza.Pipeline(lang='zh', processors='tokenize')
Stanza_doc_open = open('Stanza_No_Tags.txt', 'r').read()

doc = nlp(Stanza_doc_open)
for i, sentence in doc.sentences:
    print(f'====== Sentence {i+1} =======', file=open('Stanza_Tokenized.txt', 'a'))
于 2020-06-09T01:51:55.673 回答