我正在使用 Spacy 提取与格和直接对象。Noun.chunks 已经对其根源进行了依赖标记,例如dativeand dobj,我想做的是获取Span并将其保存为 Doc 以应用进一步分析。
我有以下代码:
import spacy
nlp = spacy.load("en_core_web_lg")
doc = nlp(open("/-textfile").read())
到目前为止一切顺利,接下来我得到了 Span 对象;
datives = []
for dat in doc.noun_chunks:
    if dat.root.dep_ == "dative" and dat.root.head.pos_ == "VERB":
            dative.append(dat.sent)
现在我有了所有的noun.chunks词根是与格而 head 是VERB
但是,我想token从datives []
dativesent = datives.as_doc()
但问题是datives []已经是一个列表,我无法将其转换为DOC.
我怎样才能用dative-noun.chunks将句子保存为DOC?