我在本地处理 pyspark 1.4 中的数据框,并且在使该dropDuplicates
方法正常工作时遇到问题。它不断返回错误:
“AttributeError:‘list’对象没有属性‘dropDuplicates’”
不太清楚为什么,因为我似乎遵循最新文档中的语法。
#loading the CSV file into an RDD in order to start working with the data
rdd1 = sc.textFile("C:\myfilename.csv").map(lambda line: (line.split(",")[0], line.split(",")[1], line.split(",")[2], line.split(",")[3])).collect()
#loading the RDD object into a dataframe and assigning column names
df1 = sqlContext.createDataFrame(rdd1, ['column1', 'column2', 'column3', 'column4']).collect()
#dropping duplicates from the dataframe
df1.dropDuplicates().show()