我正在使用 pyspark / databricks 将 ETL 数据从镶木地板文件传输到 CosmosDB(documentdb api)。
尽管第一次成功测试了 5 行数据,但每次尝试在 cosmosdb 中写入数据都无济于事。即使只有一排,它也会永远运行。监控 cosmosdb 时,“metrics”界面中会显示定期、恒定的写入请求流到正确的集合,但没有写入任何内容。
在火花的标准错误中有错误说明“{“错误”:[“请求的资源在服务器上不再可用。”]}“但它没有失败,它只是循环。
我什至不知道如何在那里找到问题。
配置:
writeConfigUL = {
"Endpoint" : "",
"Masterkey" : "",
"Database" : "Database",
"Collection" : "Collection",
"WritingBatchSize" : 500,
"Upsert" : "true"
}
以“覆盖”模式写入
使用 azure_cosmosdb_spark_2_3_0_2_11_1_2_7_uber.jar