问题标签 [influxdb-2]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
52 浏览

influxdb - InfluxDB - 使用 Flux 按 _value 查找前 5 个系列

我正在尝试按_value检索前5个系列,当然,我使用的是flux,而且flux似乎只与系列的单独范围相关,它对系列级别的排序/限制没有帮助。让我通过一个例子来解释:

此函数是fluxQL中的内置函数,每个输出表(例如系列)中的函数结果包含列“_value”的前5个记录,但是,我试图获得前5个,有什么建议吗?

0 投票
0 回答
134 浏览

influxdb - InfluxDB Flux 当前值减去 90 天前的值

日期 价值
2020-04-06 100
2020-04-05 90
------ -----
2019-09-06 60
2019-09-05 50

如何使用通量低于 rsult:

日期 减去 val
2020-04-06 40
2020-04-05 40
------ -----
2019-09-06 ...
2019-09-05 ...

现在我普通使用map,像这样

0 投票
1 回答
259 浏览

r - httr POST 错误:“数字文字中的无效字符 '-'”

我是 Influx 和 R 的新手,我正在尝试在 R Studio 中从 InfluxDB 1.8.4(启用 Flux)查询数据。我无法弄清楚我的代码有什么问题:

我试图获取的数据如下所示:

我总是收到此错误消息

我可以使用 Postman 推送相同的请求(使用所有这些参数)。为什么它在 R 中不起作用?R存储数据的方式可能有问题吗?我认为它可能是时间戳形式的时间序列数据,格式为 rfc339(其中有“-”来分隔日期。

有任何想法吗?感谢你们!

0 投票
1 回答
889 浏览

influxdb - 使用 1.x 客户端写入 InfluxDB 2.x

使用 1.x 写入端点时,我无法解决来自 InfluxDB 2 的未经授权的响应。

设置:

InfluxDB 2.0 docs中,它声明它具有一些 1.x 兼容性:

InfluxDB v2 API 包括与 InfluxDB 1.x 客户端库和 Grafana 等第三方集成一起使用的 InfluxDB 1.x 兼容性端点。

特别是,/write被列为 1.x 兼容

因此,让我们对此进行测试并使用 1.x api 写入 2.0 服务器。首先,我们将使用用户名和密码启动一个 docker 映像

文档声明我们可以使用基本身份验证进行身份验证,因此以下示例(也来自他们的文档,只有身份验证切换到 curl 更符合人体工程学的--user选项)应该可以工作:

不幸的是,返回 401 并带有以下有效负载:

可能是什么问题?我在 docker 设置中提供了最少数量的必需参数,并且我从他们的文档中复制并粘贴了示例——没有太多可能出错的地方。

最终目标是拥有一个可以同时写入 1.x 和 2.x 的客户端,因为一些部署是 1.x,而其他部署是 2.x。阅读文档让我认为这是可能的,但遵循文档让我不这么认为。解决方案真的是同时嵌入 InfluxDB 1.x 和 2.x 客户端并要求用户在运行应用程序之前指定此版本吗?

Fwiw,添加更详细的日志记录不会产生额外的洞察力——只有相同的未经授权的行:

0 投票
1 回答
121 浏览

influxdb - 如何下载csv格式的influxdb2.0数据?

我不熟悉 influxdb 命令行,尤其是 influxDB2.0。所以我选择使用 InfluxDB 8086 端口前端。但是我发现如果想通过前端下载.csv,太多的数据导致浏览器崩溃,最后导致下载失败。

我已阅读 influxdb2.0 文档并没有找到答案。我必须使用命令行还是应该使用什么命令行?非常感谢提前

0 投票
1 回答
22 浏览

database-performance - 评估 InfuxDB 中的数千个指标

我正在尝试使用检查器评估数千个指标,但我的计算机不计算它。我也尝试过任务。

PC:具有 Core i5(8 个线程)和 16 GB RAM 的笔记本电脑我在 docker 中运行 influxdb(6 个线程,允许 8 GB RAM)。

你知道问题出在哪里吗?还是 influxdb 可以计算这么多指标?

谢谢!

0 投票
0 回答
13 浏览

influxdb - InfluxDB 选择记录优先级标签值

我最近安装了一个 InfluxDB 2.0 服务器。我正在保存需要根据某些特征进行区分的数据。我对同一个时间戳有不同的值,所以我决定使用Status标签来区分记录。Status标签可以有多个值:, REAL, OPTIMIZED. PROVISIONAL现在我需要获取对Status标签值进行优先排序的数据,如果对于同一个时间戳我有多个值,我需要它首先返回Status OPTIMIZED,如果它不存在,则返回REAL,最后返回PROVISIONAL. InfluxDB 2.0 可以做到这一点。

我真的不在乎是否Status应该是一个领域。

0 投票
1 回答
85 浏览

jmeter - 我想知道来自 jmeter 后端侦听器的值的含义

Jmeter 后端监听器

我通过这个后端监听器将结果值发送到 influxdb

我可以收到这个值。

数据

数据

但是,我不知道这个值的含义是什么。

你能帮助我吗?谢谢你!

0 投票
0 回答
307 浏览

backup - Influxdb 2.0 备份失败,读取:授权未经授权

我正在尝试使用 v2.0 文档中所述的备份命令备份 influxdb。

https://docs.influxdata.com/influxdb/v2.0/backup-restore/backup/

docker-compose.yaml

备份命令失败如下。

0 投票
0 回答
30 浏览

bigdata - InfluxDB optimize storage for 2.7 billion series and more

We're looking to migrate some data into InfluxDB. I'm working with InfluxDB 2.0 on a test server to determine the best way to stock our data.

As of today, I have about 2.7 billion series to migrate to InfluxDB but that number will only go up.

Here is the structure of the data I need to stock:

  • ClientId (332 values as of today, string of 7 characters)
  • Driver (int, 45k values as of today, will increase)
  • Vehicle (int, 28k values as of today, will increase)
  • Channel (100 values, should not increase, string of 40 characters)
  • value of the channel (float, 1 value per channel/vehicle/driver/client at a given timestamp)

At first, I thought of stocking my data this way:

  • One bucket (as all data have the same data retention)
  • Measurements = channels (so 100 kind of measurements are stocked)
  • Tag Keys = ClientId
  • Fields = Driver, Vehicle, Value of channel

This gave me a cardinality of 1 * 100 * 332 * 3 = 99 600 according to this article

But then I realized that InfluxDB handle duplicate based on "measurement name, tag set, and timestamp".

So for my data, this will not work, as I need the duplicate to be based on ClientId, Channel, Vehicle at the minimum.

But if I change my data structure to be stored this way:

  • One bucket (as all data have the same data retention)
  • Measurements = channels (so 100 kind of measurements are stocked)
  • Tag Keys = ClientId, Vehicle
  • Fields = Driver, Value of channel

then I'll get a cardinality of 2 788 800 000.

I understand that I need to keep cardinality as low as possible. (And ideally I would even need to be able to search by driver as well as by vehicle.)

My questions are:

  • If I split the data into different buckets (ex: 1 bucket per clientId), will it decrease my cardinality?
  • What would be the best way to stock data for such a large amount of series?