我来自 Java/C,我正在尝试使用行理解。我有以下代码,但似乎无法获得等同于工作的行理解。
stop_words = set(nltk.corpus.stopwords.words('english'))
tokenizer = nltk.tokenize.RegexpTokenizer(r'\w+')
tokens = tokenizer.tokenize(text)
token_map = {}
for token in tokens:
token = token.lower()
if english_dict.check(token):
if token not in stop_words:
if token in token_map:
token_map[token] += 1
else:
token_map[token] = 1
sorted_map = sorted(token_map.items(), key=operator.itemgetter(1))
return sorted_map