问题标签 [influxdb-2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
influxdb - InfluxDB - 使用 Flux 按 _value 查找前 5 个系列
我正在尝试按_value检索前5个系列,当然,我使用的是flux,而且flux似乎只与系列的单独范围相关,它对系列级别的排序/限制没有帮助。让我通过一个例子来解释:
此函数是fluxQL中的内置函数,每个输出表(例如系列)中的函数结果包含列“_value”的前5个记录,但是,我试图获得前5个表,有什么建议吗?
influxdb - InfluxDB Flux 当前值减去 90 天前的值
日期 | 价值 |
---|---|
2020-04-06 | 100 |
2020-04-05 | 90 |
------ | ----- |
2019-09-06 | 60 |
2019-09-05 | 50 |
如何使用通量低于 rsult:
日期 | 减去 val |
---|---|
2020-04-06 | 40 |
2020-04-05 | 40 |
------ | ----- |
2019-09-06 | ... |
2019-09-05 | ... |
现在我普通使用map
,像这样
r - httr POST 错误:“数字文字中的无效字符 '-'”
我是 Influx 和 R 的新手,我正在尝试在 R Studio 中从 InfluxDB 1.8.4(启用 Flux)查询数据。我无法弄清楚我的代码有什么问题:
我试图获取的数据如下所示:
我总是收到此错误消息:
我可以使用 Postman 推送相同的请求(使用所有这些参数)。为什么它在 R 中不起作用?R存储数据的方式可能有问题吗?我认为它可能是时间戳形式的时间序列数据,格式为 rfc339(其中有“-”来分隔日期。
有任何想法吗?感谢你们!
influxdb - 使用 1.x 客户端写入 InfluxDB 2.x
使用 1.x 写入端点时,我无法解决来自 InfluxDB 2 的未经授权的响应。
设置:
从InfluxDB 2.0 docs中,它声明它具有一些 1.x 兼容性:
InfluxDB v2 API 包括与 InfluxDB 1.x 客户端库和 Grafana 等第三方集成一起使用的 InfluxDB 1.x 兼容性端点。
特别是,/write
被列为 1.x 兼容
因此,让我们对此进行测试并使用 1.x api 写入 2.0 服务器。首先,我们将使用用户名和密码启动一个 docker 映像
文档声明我们可以使用基本身份验证进行身份验证,因此以下示例(也来自他们的文档,只有身份验证切换到 curl 更符合人体工程学的--user
选项)应该可以工作:
不幸的是,返回 401 并带有以下有效负载:
可能是什么问题?我在 docker 设置中提供了最少数量的必需参数,并且我从他们的文档中复制并粘贴了示例——没有太多可能出错的地方。
最终目标是拥有一个可以同时写入 1.x 和 2.x 的客户端,因为一些部署是 1.x,而其他部署是 2.x。阅读文档让我认为这是可能的,但遵循文档让我不这么认为。解决方案真的是同时嵌入 InfluxDB 1.x 和 2.x 客户端并要求用户在运行应用程序之前指定此版本吗?
Fwiw,添加更详细的日志记录不会产生额外的洞察力——只有相同的未经授权的行:
influxdb - 如何下载csv格式的influxdb2.0数据?
我不熟悉 influxdb 命令行,尤其是 influxDB2.0。所以我选择使用 InfluxDB 8086 端口前端。但是我发现如果想通过前端下载.csv,太多的数据导致浏览器崩溃,最后导致下载失败。
我已阅读 influxdb2.0 文档并没有找到答案。我必须使用命令行还是应该使用什么命令行?非常感谢提前
database-performance - 评估 InfuxDB 中的数千个指标
我正在尝试使用检查器评估数千个指标,但我的计算机不计算它。我也尝试过任务。
PC:具有 Core i5(8 个线程)和 16 GB RAM 的笔记本电脑我在 docker 中运行 influxdb(6 个线程,允许 8 GB RAM)。
你知道问题出在哪里吗?还是 influxdb 可以计算这么多指标?
谢谢!
influxdb - InfluxDB 选择记录优先级标签值
我最近安装了一个 InfluxDB 2.0 服务器。我正在保存需要根据某些特征进行区分的数据。我对同一个时间戳有不同的值,所以我决定使用Status
标签来区分记录。Status
标签可以有多个值:, REAL
, OPTIMIZED
. PROVISIONAL
现在我需要获取对Status
标签值进行优先排序的数据,如果对于同一个时间戳我有多个值,我需要它首先返回Status
OPTIMIZED
,如果它不存在,则返回REAL
,最后返回PROVISIONAL
. InfluxDB 2.0 可以做到这一点。
我真的不在乎是否Status
应该是一个领域。
backup - Influxdb 2.0 备份失败,读取:授权未经授权
我正在尝试使用 v2.0 文档中所述的备份命令备份 influxdb。
https://docs.influxdata.com/influxdb/v2.0/backup-restore/backup/
docker-compose.yaml
备份命令失败如下。
bigdata - InfluxDB optimize storage for 2.7 billion series and more
We're looking to migrate some data into InfluxDB. I'm working with InfluxDB 2.0 on a test server to determine the best way to stock our data.
As of today, I have about 2.7 billion series to migrate to InfluxDB but that number will only go up.
Here is the structure of the data I need to stock:
- ClientId (332 values as of today, string of 7 characters)
- Driver (int, 45k values as of today, will increase)
- Vehicle (int, 28k values as of today, will increase)
- Channel (100 values, should not increase, string of 40 characters)
- value of the channel (float, 1 value per channel/vehicle/driver/client at a given timestamp)
At first, I thought of stocking my data this way:
- One bucket (as all data have the same data retention)
- Measurements = channels (so 100 kind of measurements are stocked)
- Tag Keys = ClientId
- Fields = Driver, Vehicle, Value of channel
This gave me a cardinality of 1 * 100 * 332 * 3 = 99 600 according to this article
But then I realized that InfluxDB handle duplicate based on "measurement name, tag set, and timestamp".
So for my data, this will not work, as I need the duplicate to be based on ClientId, Channel, Vehicle at the minimum.
But if I change my data structure to be stored this way:
- One bucket (as all data have the same data retention)
- Measurements = channels (so 100 kind of measurements are stocked)
- Tag Keys = ClientId, Vehicle
- Fields = Driver, Value of channel
then I'll get a cardinality of 2 788 800 000.
I understand that I need to keep cardinality as low as possible. (And ideally I would even need to be able to search by driver as well as by vehicle.)
My questions are:
- If I split the data into different buckets (ex: 1 bucket per clientId), will it decrease my cardinality?
- What would be the best way to stock data for such a large amount of series?