问题标签 [azure-sql-data-warehouse]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
184 浏览

azure - sys.dm_pdw_nodes_exec_requests 具有空值

这适用于 Azure Synapse Analytics,即 Azure SQL 数据仓库

我的目标是将 sys.dm_pdw_exec_requests 加入 sys.dm_pdw_nodes_exec_query_stats。

DMV sys.dm_pdw_nodes_exec_query_stats 提供了有关每个计算节点的查询执行的详细信息。我想将此表中的条目加入到 sys.dm_pdw_exec_requests 中的执行请求中。DMV sys.dm_pdw_nodes_exec_requests 可以将这些 DMV 与其 sql_handle、session_id 和 pdw_node_id 列连接起来。

我的查询是

它基于:https ://www.sqlservercentral.com/blogs/parallel-data-warehouse-pdw-tip-useful-appliance-queries

两个问题导致此查询不返回任何内容

  1. 对于连接在一起的 sr 和 ner 行,ner.sql_handle 为 null 或 0x000...0 并且它不能连接到 neqs。

  2. 对于连接在一起的 ner 和 neq 行,ner.session_id 在 sr 中没有匹配的 spid。

**如果我的两个问题有正当理由,是否有另一种方法可以将 sys.dm_pdw_exec_requests 加入到 sys.dm_pdw_nodes_exec_query_stats?

有没有办法可以修复 DMV 中的 Null/无效值?

0 投票
1 回答
42 浏览

azure-sql-data-warehouse - 为什么 CTE 在 Sql 数据仓库中的性能比临时表好得多?

我想从一个大表(大约 10 亿行)中选择与 id 匹配的数据,该表与从 json 传入数据创建的表相匹配。

这是我首先做的:

这表现得很糟糕。花了将近3分钟才完成!

经过几次尝试,我决定看看 CTE 的表现如何:

令我惊讶的是,CTE 变得更好。花了不到一秒钟的时间。

为什么 CTE 在这样一个简单的查询上表现得这么好?

0 投票
1 回答
55 浏览

sql - 大家好,我有一个正在实现的逻辑,我的要求是该列的总和不应超过 24 小时

例如:-时间(以分钟为单位)

该列的总和不应超过 24 小时。

请考虑上面的“时间”列,其中包含以分钟为单位的数据。如果所有实体的总和小于 24 小时,那很好,但是如果总和大于 24 小时,那么值应该限制为 24 小时,例如总时间<24 小时,那么这很好,但是如果总时间是 24.02 或 24.10,那么值应该是 24 小时只要

你能帮忙改进一下方法吗

请考虑上面的“时间”列,其中包含以分钟为单位的数据。如果所有实体的总和小于 24 小时,那很好,但是如果总和大于 24 小时,则值应限制为 24 小时,例如总时间<24 小时,那么很好 24.02 或 24.10,则值应仅为 24 小时

0 投票
2 回答
3344 浏览

azure-data-factory-2 - 当我们拥有 Polybase 时为何选择 Azure 数据工厂

我们的要求是从 Blob 存储中获取数据并转换为其他表格形式。这可以通过使用 polybase 的 Sql DW 来实现。在这种情况下,Azure 数据工厂的真正作用是什么?

我知道 Azure 数据工厂可以实现相同的目标。但是,使用 Polybase 的 Azure DW 不是最简单且经济高效的选择吗?

0 投票
1 回答
1252 浏览

databricks - 从 Databricks 写入 Synapse (Azure DW) 非常慢

我们正在使用 Databricks 及其 SQL DW 连接器将数据加载到 Synapse 中。我有一个包含 10 000 行和 40 列的数据集。需要7分钟!

使用带有 Polybase 和暂存选项的数据工厂加载相同的数据集需要 27 秒。与批量复制相同。

有什么问题?我错过了一些配置吗?还是照常营业?

连接配置:

0 投票
0 回答
79 浏览

azure - 使用 azure databricks 从 azure data Lake gen 2 推送 azure sql 数据仓库的增量更改

我一直在尝试使用 Azure Databricks 将 azure 数据湖(源)发生的更改推送到 azure SQL 数据仓库(目标)。如果有人可以帮助列出所涉及的步骤以及如何实现?

此外,我想以一种非常经济高效的方式将其放在一起,例如集群应该在运行时创建/启动和删除/停止。我需要一份工作吗?

请告诉我!

0 投票
1 回答
1358 浏览

azure - 无法使用 azure databricks 连接到 azure sql dw

我正在尝试连接到 Azure SQL 数据仓库,但收到此错误。“com.databricks.spark.sqldw.SqlDWSideException:SQL DW 无法执行连接器生成的 JDBC 查询”

此外,它还说“连接字符串包含格式错误的名称或值。[ErrorCode = 0] [SQLState = null]”

请帮忙!

0 投票
1 回答
691 浏览

azure-databricks - 将数据从数据块写入 Azure DW(突触)时出现问题

试图通过databricks流数据帧将数据写入SQl DW。进程正在尝试删除 BLOB 存储中的临时文件夹并在下面抛出。在文档中,我看到该过程不会自动清理 tempdir。这是真的吗?如果为真,那么为什么会出现此错误?在python中使用以下查询

错误 AzureNativeFileSystemStore:在 Blob 上删除时遇到存储异常:https ://savupputest1.blob.core.windows.net/container1/tempDirs/2019-12-20/21-27-29-347/adca2ed6-a705-4274-8c24 -0f0e3d7c64a7/batch0,异常详细信息:不允许在非空目录上执行此操作。错误代码:DirectoryIsNotEmpty 19/12/20 21:27:32 错误 AzureNativeFileSystemStore:尝试删除密钥 tempDirs/2019-12-20/21-27-29-347/adca2ed6-a705-4274-8c24-0f0e3d7c64a7/batch0 时失败

0 投票
1 回答
341 浏览

sql-server - 如何在主数据库上创建主密钥?授予相同的主数据库的登录名和用户需要哪些角色?

我正在尝试在我的 azure sql 数据仓库的主数据库上创建一个主密钥。但是我的用户没有这样做所需的权限。需要为 azure sql 数据仓库的用户或登录分配/授予哪些角色?我能够使用 SSMS 的 GUI 向本地 sql server 实例的用户授予控制权限。而且我还能够在该 sql server 的主数据库上的该角色的帮助下创建一个主密钥。我用于此的脚本是:

但是没有直接规定可以使用 SSMS 的 GUI 在 azure sql 仓库上为用户提供这种访问权限。我用于本地 sql 服务器实例的脚本不适用于 azure sql 数据仓库。数据库上的 GRANT CONTROL::[master ] 到 LoaderRC20;抛出无法授予、拒绝或撤销您自己、sa、dbo、sys 等权限的错误。是否有任何脚本可以授予 azure sql 数据仓库的 master db 用户权限,以便我能够在其上创建主密钥?如果是,那么这些脚本及其顺序是什么?我真的很努力地寻找这些问题的答案问题。请帮我找到答案

0 投票
2 回答
367 浏览

azure - 如何改进 Azure SQL 数据仓库中单个用户的查询执行并行化?

我们的 Web 应用程序中加载了一个新的报表仪表板,其中数据来自 Azure SQLDataWareHouse。

仪表板由约 8-10 个图块组成,每个图块显示不同的指标,由不同的查询加载。

使用一些简单的 ADO.NET 代码从 webapp 执行各种查询,以使用dashboard用户帐户连接到 DW。

我已经阅读了关于内存和并发限制资源类的两篇文章,但有些东西我只是不理解。

对于我们的 DW 服务级别(Gen2 - DW200c),服务器应该支持运行 8 个并发查询。同样,我们已经将我们的dashboard用户添加到staticrc80资源组中,这应该允许它访问所有 8 个并发槽。

但这似乎没有帮助。我是否正确理解,无论这些资源配置如何,它仍然一次只为单个用户执行单个查询?并且在同一个用户帐户下执行的多个查询仍然会排队?

一种替代方法似乎是我可以为每个磁贴使用不同的用户帐户,建立 8 个单独的连接,运行 8 个单独的查询,其中每个查询帐户都分配给 staticrc10 角色。

我在这里错过了一些基本的东西吗?此 DW 专用于单个应用程序,具有单个用户帐户 reader 用户帐户。如何根据资源类等配置该帐户...以充分利用 8 并行查询/200 DWU 资源分配。