目标是情感分类。步骤是打开 3 个 xlsx 文件,读取它们,使用 gensim.doc2vec 方法处理并使用 SGDClassificator 进行分类。只需尝试在 doc2vec 上重复此代码。蟒蛇 2.7
with open('C:/doc2v/trainpos.xlsx','r') as infile:
pos_reviews = infile.readlines()
with open('C:/doc2v/trainneg.xlsx','r') as infile:
neg_reviews = infile.readlines()
with open('C:/doc2v/unsup.xlsx','r') as infile:
unsup_reviews = infile.readlines()
但事实证明,结果列表并非预期的那样:
print 'length of pos_reviews is %s' % len(pos_reviews)
>>> length of pos_reviews is 1
这些文件分别包含 18、1221 和 2203 个原始数据。我认为这些列表将具有相同数量的元素。
下一步是连接所有的句子。
y = np.concatenate((np.ones(len(pos_reviews)), np.zeros(len(neg_reviews))))
x_train, x_test, y_train, y_test = train_test_split(np.concatenate((pos_reviews, neg_reviews)), y, test_size=0.2)
这导致了当 x-train、x-test 是句子列表时的情况,因为它们应该是 while
y_train = [0.]
y_test = [1.]
在这个划分之后,每个句子都有一个标签:
def labelizeReviews(reviews, label_type):
labelized = []
for i,v in enumerate(reviews):
label = '%s_%s'%(label_type,i)
labelized.append(LabeledSentence(v, [label]))
return labelized
x_train = labelizeReviews(x_train, 'TRAIN')
x_test = labelizeReviews(x_test, 'TEST')
unsup_reviews = labelizeReviews(unsup_reviews, 'UNSUP')
正如numpy 文档中所写,数组的大小应该相等。但是当我将较大的文件减少到 18 行时,没有任何变化。正如我在论坛上搜索的那样,没有人有类似的错误。我已经打破了我的头出了什么问题以及如何解决它。感谢帮助!