尝试使用 Azure 数据工厂将数据湖 (gen2) 中的 csv 文件加载到 Azure Synapse。源文件具有“(双引号)作为转义字符。这超出了将 polybase 直接连接到 Data Lake 的数据限制。我通过以下文档设置了暂存副本
"enableStaging": true,
"stagingSettings": {
"linkedServiceName": {
"referenceName": "LS_StagedCopy",
"type": "LinkedServiceReference"
},
"path": "myContainer/myPath",
"enableCompression": false
}
调试管道后,我仍然得到
{Class=16,Number=107090,State=1,Message=HdfsBridge::recordReaderFillBuffer - Unexpected error encountered filling record reader buffer: HadoopExecutionException: Too many columns in the line.,},],
我确实看到 ADF 在我在暂存副本中提供的路径中创建了一个临时文件夹,但看起来它没有执行加载数据所需的转换。我错过了什么吗?