我希望我的 Python 函数拆分一个句子(输入)并将每个单词存储在一个列表中。我当前的代码拆分句子,但不将单词存储为列表。我怎么做?
def split_line(text):
# split the text
words = text.split()
# for each word in the line:
for word in words:
# print the word
print(words)
我希望我的 Python 函数拆分一个句子(输入)并将每个单词存储在一个列表中。我当前的代码拆分句子,但不将单词存储为列表。我怎么做?
def split_line(text):
# split the text
words = text.split()
# for each word in the line:
for word in words:
# print the word
print(words)
text.split()
这应该足以将每个单词存储在列表中。 words
已经是句子中单词的列表,因此不需要循环。
其次,这可能是一个错字,但你的循环有点混乱。如果你真的想使用追加,那就是:
words.append(word)
不是
word.append(words)
text
在任何连续运行的空白处拆分字符串。
words = text.split()
在分隔符上拆分字符串text
:","
.
words = text.split(",")
words 变量将是 alist
并包含text
分隔符上拆分的单词。
返回字符串中的单词列表,使用 sep 作为分隔符...如果未指定 sep 或为 None,则应用不同的拆分算法:连续空格的运行被视为单个分隔符,结果将包含如果字符串具有前导或尾随空格,则在开头或结尾处没有空字符串。
>>> line="a sentence with a few words"
>>> line.split()
['a', 'sentence', 'with', 'a', 'few', 'words']
>>>
根据您打算如何处理句子列表,您可能需要查看Natural Language Take Kit。它主要处理文本处理和评估。您也可以使用它来解决您的问题:
import nltk
words = nltk.word_tokenize(raw_sentence)
这具有拆分标点符号的额外好处。
例子:
>>> import nltk
>>> s = "The fox's foot grazed the sleeping dog, waking it."
>>> words = nltk.word_tokenize(s)
>>> words
['The', 'fox', "'s", 'foot', 'grazed', 'the', 'sleeping', 'dog', ',',
'waking', 'it', '.']
这使您可以过滤掉任何您不想要的标点符号并仅使用单词。
请注意,string.split()
如果您不打算对句子进行任何复杂的操作,则使用其他解决方案会更好。
[已编辑]
这个算法怎么样?在空白处拆分文本,然后修剪标点符号。这会小心地从单词边缘删除标点符号,而不会损害单词内部的撇号,例如we're
.
>>> text
"'Oh, you can't help that,' said the Cat: 'we're all mad here. I'm mad. You're mad.'"
>>> text.split()
["'Oh,", 'you', "can't", 'help', "that,'", 'said', 'the', 'Cat:', "'we're", 'all', 'mad', 'here.', "I'm", 'mad.', "You're", "mad.'"]
>>> import string
>>> [word.strip(string.punctuation) for word in text.split()]
['Oh', 'you', "can't", 'help', 'that', 'said', 'the', 'Cat', "we're", 'all', 'mad', 'here', "I'm", 'mad', "You're", 'mad']
我希望我的 python 函数拆分一个句子(输入)并将每个单词存储在一个列表中
该str().split()
方法执行此操作,它需要一个字符串,将其拆分为一个列表:
>>> the_string = "this is a sentence"
>>> words = the_string.split(" ")
>>> print(words)
['this', 'is', 'a', 'sentence']
>>> type(words)
<type 'list'> # or <class 'list'> in Python 3.0
您遇到的问题是由于拼写错误,您写print(words)
的是print(word)
:
word
将变量重命名为current_word
,这就是你所拥有的:
def split_line(text):
words = text.split()
for current_word in words:
print(words)
..当你应该做的时候:
def split_line(text):
words = text.split()
for current_word in words:
print(current_word)
如果出于某种原因您想在 for 循环中手动构造一个列表,您将使用 listappend()
方法,可能是因为您想将所有单词小写(例如):
my_list = [] # make empty list
for current_word in words:
my_list.append(current_word.lower())
或者更简洁一些,使用list-comprehension:
my_list = [current_word.lower() for current_word in words]
如果您想要列表中的单词/句子的所有字符,请执行以下操作:
print(list("word"))
# ['w', 'o', 'r', 'd']
print(list("some sentence"))
# ['s', 'o', 'm', 'e', ' ', 's', 'e', 'n', 't', 'e', 'n', 'c', 'e']
我认为你因为错字而感到困惑。
在循环中替换print(words)
为将每个单词打印在不同的行上print(word)
在不损害单词内部撇号的情况下拆分单词 请找到 input_1 和 input_2 摩尔定律
def split_into_words(line):
import re
word_regex_improved = r"(\w[\w']*\w|\w)"
word_matcher = re.compile(word_regex_improved)
return word_matcher.findall(line)
#Example 1
input_1 = "computational power (see Moore's law) and "
split_into_words(input_1)
# output
['computational', 'power', 'see', "Moore's", 'law', 'and']
#Example 2
input_2 = """Oh, you can't help that,' said the Cat: 'we're all mad here. I'm mad. You're mad."""
split_into_words(input_2)
#output
['Oh',
'you',
"can't",
'help',
'that',
'said',
'the',
'Cat',
"we're",
'all',
'mad',
'here',
"I'm",
'mad',
"You're",
'mad']