我可以使用dask.dataframe.read_sql_table来读取数据,例如df = dd.read_sql_table(table='TABLE', uri=uri, index_col='field', npartitions=N)
将其保存为 Azure Blob 存储中的镶木地板文件的下一个(最佳)步骤是什么?
根据我的小型研究,有两种选择:
- 在本地保存并使用https://docs.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-blobs?toc=/azure/storage/blobs/toc.json(不适合大数据)
- 我相信adfs是从 blob 中读取
- 使用dask.dataframe.to_parquet并找出如何指向 blob 容器
- 摄入项目(不知道从哪里开始)