我有一个像这样的大 txt 文件(150MG)
'intrepid', 'bumbling', 'duo', 'deliver', 'good', 'one', 'better', 'offering', 'considerable', 'cv', 'freshly', 'qualified', 'private', ...
我想使用该文件训练 word2vec 模型模型,但它给了我 RAM 问题。我不知道如何将 txt 文件提供给 word2vec 模型。这是我的代码。我知道我的代码有问题,但我不知道它在哪里。
import gensim
f = open('your_file1.txt')
for line in f:
b=line
model = gensim.models.Word2Vec([b],min_count=1,size=32)
w1 = "bad"
model.wv.most_similar (positive=w1)