我正在使用 WKS 处理 NLP 应用程序,经过培训,得到了相当低的性能结果。
我想知道是否有一种方法可以下载带有实体分类的注释文档,包括训练集和测试集,这样我就可以自动详细识别关键差异在哪里,这样我就可以修复它们。
那些由人工注释的,可以在“资产”/“文档”-> 下载文档集(右侧的按钮)部分下载。
以下 Python 代码可让您查看其中的数据:
import json
import zipfile
with zipfile.ZipFile(<YOUR DOWNLOADED FILE>, "r") as zip:
with zip.open('documents.json') as arch:
data = arch.read()
documents = json.loads(data)
print(json.dumps(documents,indent=2,separators=(',',':')))
df_documentos = pd.DataFrame(None)
i = 0
for documento in documents:
df_documentos.at[i,'name'] = documento['name']
df_documentos.at[i,'text'] = documento['text']
df_documentos.at[i,'status'] = documento['status']
df_documentos.at[i,'id'] = documento['id']
df_documentos.at[i,'createdDate'] = '{:14.0f}'.format(documento['createdDate'])
df_documentos.at[i,'modifiedDate'] = '{:14.0f}'.format(documento['modifiedDate'])
i += 1
df_documentos
with zipfile.ZipFile(<YOUR DOWNLOADED FILE>, "r") as zip:
with zip.open('sets.json') as arch:
data = arch.read()
sets = json.loads(data)
print(json.dumps(sets,indent=2,separators=(',',':')))
df_sets = pd.DataFrame(None)
i = 0
for set in sets:
df_sets.at[i,'type'] = set['type']
df_sets.at[i,'name'] = set['name']
df_sets.at[i,'count'] = '{:6.0f}'.format(set['count'])
df_sets.at[i,'id'] = set['id']
df_sets.at[i,'createdDate'] = '{:14.0f}'.format(set['createdDate'])
df_sets.at[i,'modifiedDate'] = '{:14.0f}'.format(set['modifiedDate'])
i += 1
df_sets
然后可以迭代读取压缩文件“gt”文件夹下的每一个JSON文件,得到详细的分句、分词和标注。
我需要的是能够通过 TEST 文档下载机器学习模型产生的注释,这些注释在“机器学习模型”/“性能”/“查看解码结果”中可见。
有了这个,我将能够识别可能导致修改类型字典和注释标准的特定偏差。