问题标签 [azure-stream-analytics]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - 流分析作业不接收任何输入
我下载并部署了远程监控 Azure IoT Suite项目。我对部署模板所做的唯一更改是部署免费版本的 IoT Hub,而不是 S2。我正在使用Azure IoT SDK向 IoT 中心发送消息。Azure 门户上的监视显示消息正在到达。
但是当我查看三个 Azure 流分析作业时,它们都没有收到任何输入。就像物联网中心没有让任何 ASA 知道有数据需要处理。权限不变。IoT 中心有一个具有所有权限的策略,并且所有 ADA 都在使用该策略。我创建了一个具有相同策略的新 ADA,但我也没有在该 ADA 中获得任何数据。
这里可能出了什么问题?
cortana-intelligence - 流分析查询错误
在为流式分析输入查询时,我没有收到任何错误消息,但是,当我开始流式分析作业时,我收到以下错误:
流分析作业存在验证错误:未定义查询中使用的输出 dsleads。活动 ID:'5cc961c5-4dbd-4a63-95df-8e3b08d2121c-2016-03-28 14:56:21Z'。
我检查了输出名称并确认它是正确的。我不确定我做错了什么。我正在使用的查询如下:
SELECT 类型,count(*) 作为计数,system.timestamp 作为时间 INTO dsleads FROM ttvhuball 时间戳按时间 GROUP BY 类型,TumblingWindow(minute, 10)
我搜索了互联网并没有发现任何有用的东西。
tsql - 在流分析工作中可以有多个查询吗?
正如标题所说,在 Azure 流分析作业中可以有多个查询吗?如果是这样,应该如何构建?
tsql - 流式分析查询产生的不仅仅是实时数据
我最近设置了一个流分析作业,从每月捕获大约 1000 个事件的事件中心提取数据。我想从事件中心提取实时数据并显示接近实时的数据。我输入了以下查询,该查询成功地将数据下载到流分析作业:
但是,当我在 PowerBI 在线服务中检查数据集时,我注意到数据一直在捕获和显示从现在到昨天的事件。我没有看到我的查询中导致数据保留超过 5 秒的内容。有任何想法吗?
csv - 将 CSV 文件导入 Microsoft azure Stream Analytics
我是这个领域的新手。我现在有一个 excelc 中的原始文件(来自传感器的数据),我想将它上传到 azure 并使用流来处理它,因为数据格式支持 CSV,我正在考虑将 excel 保存在 csv 中并上传它在 blob 存储中(或者我应该将其发送到事件中心?),但是流分析在输出中没有显示任何内容。原始文件如下所示,有人知道吗?
azure-stream-analytics - Azure 流分析 - 拆分日期和时间
我正在尝试拆分 ASA 查询的日期和时间组件,但遇到了一些困难。我确实尝试使用 concat、datepart 和 dateadd 函数来实现这一点,但它出现了查询编译失败错误。关于我做错了什么或实现这一目标的另一种更好方法的任何想法?
ConCat(DatePart(hh,DateAdd(Hour,11,System.Timestamp)),':',DatePart(mm,DateAdd(Hour,11,System.Timestamp))) 作为时间,
谢谢
cortana-intelligence - 流分析作业的 Visual Studio 模板?
流分析作业是否有 Visual Studio 模板?即从 Visual Studio 开发和发布到 Azure 的概念。
如果不是,我们如何为流分析开发应用程序生命周期?
例如,Azure 数据工厂有 json 模板来创建其对象,流分析也有一个吗?
azure - Azure 流分析 - 如何重定向或处理错误事件/行?
有没有办法捕获数据错误事件/行并将其重定向到单独的输出?
例如,假设我有事件通过,并且由于某种原因存在数据转换错误。我想处理这些错误并做一些事情,可能是单独的输出以供进一步调查?
目前在流分析错误策略中,如果事件无法写入输出,我们只有两个选项
Drop - 只是丢弃事件(或) Retry - 重试写入事件,直到它成功
azure-stream-analytics - 流分析 - Blob 输出文件名?
对于 Blob 存储输出,我们如何控制文件名?我尝试了路径模式,但它只在 blob 中创建虚拟文件夹。无法在输出中定义文件名。
我指定“test”的路径模式中的示例导致 - /blobcontainer/ test /1513855769_670e84ee67f643d7aff3cad3cc6d9333.csv
同样在路径模式中,我指定了“test/filename.csv” - 结果是 - /blobcontainer/test/filename.csv /1513855769_670e84ee67f643d7aff3cad3cc6d9333.csv
azure - Unix 时间在 Azure 流分析中转换为日期
我正在使用流分析来实时处理一些 RFID 数据。来自 RFID 阅读器的事件作为输入发送到事件中心。现在我面临一个问题,事件中的时间是 UNIX 时间格式,看起来像“TimeStamp”:1460471242.22402,“当我测试查询时很奇怪(不是开始工作,而是使用输入中的示例数据),UNIX 时间更改为 "2016-04-12T14:48:00.0000000Z" ,但是当我启动 SA 作业时,它失败并说“时间戳”列不符合 ISO 8601 标准。有没有如何在 SA 中将 UNIX 时间转换为标准日期格式而不更改输入原始数据?我的查询很简单,例如:SELECT EPCValue, Antenna, System.TimeStamp AS Time INTO dataoutput FROM datainput timestamp by TimeStamp