假设我在 pyspark 中将 parquet 文件作为 Dataframe 读取,我该如何指定它必须有多少个分区?
我像这样阅读镶木地板文件-
df = sqlContext.read.format('parquet').load('/path/to/file')
如何指定要使用的分区数?
假设我在 pyspark 中将 parquet 文件作为 Dataframe 读取,我该如何指定它必须有多少个分区?
我像这样阅读镶木地板文件-
df = sqlContext.read.format('parquet').load('/path/to/file')
如何指定要使用的分区数?