问题标签 [azure-data-factory-pipeline]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - 将数据从 SQL 服务器复制到 Azure 突触分析的最合适方法是什么
阅读网络后,我有两个选择
- 使用 ADF 将数据从 SQL 服务器复制到 Azure 突触分析。
- 将数据复制到 Blob 存储,并从那里使用外部表将数据复制到 Azure 突触分析。
这两个最好的方法是什么?
是否可以将“使用 ADF 将数据复制到 Blob 存储复制数据到 Azure 突触分析”作为另一种选择?
azure-data-factory - Azure 数据工厂 - 每个内部活动都失败
我使用查找活动将值传递给每个迭代活动。Lookup 的输出值是从 SQL 表生成的。一旦迭代开始,如果 for each 中的一个活动失败,for each 迭代器尝试运行它的次数,查找输出值可用。我如何摆脱困境?我已经从 SQL 表中删除了记录,以退出循环,但循环继续运行。当内部活动失败时,如何清除 For Each Items 设置?
问候,桑迪普
azure - Azure 数据工厂按文件夹合并镶木地板文件
我有一个带有这种格式的镶木地板文件的 ADLS Gen2 帐户(已启用 HNS):
我想使用 Azure 数据工厂将最低级别的 parquet 文件合并到一个文件中,最终结构应如下所示。
如果我使用“复制数据”活动,我只能在“合并文件”和“保留 Hiracie”之间进行选择。有没有办法做到这一点?感谢您的帮助!
azure-data-factory - 将 GetMetaData ChildItems.name 直接插入表中而不使用任何迭代器-Azure 数据工厂
azure 数据工厂中是否有一种方法可以直接将 getmetadata 活动子项直接插入 sql 表而不使用任何控制活动?
任何帮助,将不胜感激。
问候,桑迪普
azure - Azure 数据工厂 Parquet 动态架构合并
我在 ADLS Gen2 中有多个 Parquet 文件,Parquet 文件具有不同的列/模式,但所有不同的模式都相互兼容。当我在 ADF 中创建数据集时,它仅检测 68 列中的 26 列(在每个 parquet 文件中找到 26 列)。如果我使用 pyspark 读取文件,我可以使用以下几行来动态合并不同的模式。
parquetFile = spark.read.option("mergeSchema", "true").parquet("./data/*/*/*/*/*/")
有没有办法在 azure 数据工厂中进行类似的设置?
谢谢你和亲切的问候
azure - 使用具有相同 ADF 的现有管道以编程方式创建新的 ADF 管道
我正在尝试通过克隆现有管道来创建新管道。在门户中,我可以简单地使用克隆选项并进行进一步修改。我需要使用 Python 自动执行克隆管道的任务。如果有人给我指点,这将非常有用。
我已经做过的步骤:
- 打开我现有管道的代码部分并复制 JSON 文件。我正在尝试以编程方式更改 JSON,例如管道名称和变量值。当我发回请求时,它会提供无效的数据集链接。我为此遵循了 MS 文档。由于在 MS 文档中,他们都是从头开始创建的,它可能会起作用,但我在这里有兴趣重用现有的数据集和链接的服务。
- 我不想从头开始创建 ADF 管道,因为我已经有了有点复杂的参考管道。
任何建议都会很有用。
azure-data-factory - Azure 数据工厂数据集
我有一个 DelimitedText ADF 数据集。它是管道分隔的。当我在管道中将其用作复制数据活动的源并将文件数据写入 SQL 数据库表时,空白值被加载为 NULL。
我怎样才能避免这种情况?我希望空白值读取为空白值并作为空白值写入数据库表。
我尝试将 NULL 值保留为空白和 "treatEmptyAsNull": false in dataset json; 两者都没有工作。
有什么建议么?