0

在创建 CoNLL 数据集时,我在 GCP Dataproc 上遇到错误。


----> 1 training_data = CoNLL().readDataset(spark, './eng.train') 2 3 training_data.show(3) 中的 TypeError Traceback(最近一次调用)

/opt/conda/anaconda/lib/python3.7/site-packages/sparknlp/training.py init (self, documentCol, sentenceCol, tokenCol, posCol, conllLabelIndex, conllPosIndex, textCol, labelCol, explodeSentences, delimiter) 113 labelCol, 114个explodeSentences,--> 115个分隔符)

TypeError:“JavaPackage”对象不可调用

如果有人遇到同样的问题并解决了它,请帮助我。

我正在使用这些版本的Spark NLP 版本 3.3.4 和 Apache Spark 版本:2.4.8

4

0 回答 0