问题标签 [google-cloud-pubsublite]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-pubsub - PubSubLite:跨区域访问 PubSub Lite
发布者/订阅者是否可能位于与 Lite 安装位置不同的区域?例如两个用例 1. 发布者在欧洲的 GKE 应用程序中,但 Lite 及其订阅者在美国
2. 发布者和 Lite 在同一区域,例如欧洲,但订阅者在美国
google-cloud-platform - 无服务器服务上的谷歌云 pubsublite 客户端
首先,我想将这篇文章标记为 google-cloud-pubsub-lite,但它还没有创建,我很抱歉
我正在尝试使用 pubsub lite 进行介绍。我认为它可以用作在 GCP 项目中获取事件存储的“廉价”方式。
我们通常创建 GAE 标准服务,因此我们为使用的服务付费,同时它提供了出色的可扩展性。
阅读有关当前如何订阅 pubsub lite 的示例,我发现没有提供端点来接收新消息的选项。客户端连接到订阅并等待新消息流式传输抛出连接。
我想知道几个问题:
- 我们可以在 Cloud Function 或 GAE 标准服务的端点中接收来自 pubsub lite 主题的消息吗?
- 我们如何扩展到多个客户的主题订阅
谢谢
apache-kafka - pubSubSource: Receving the same message twice
Description
- I have a pubSubSource connector in Kafka Connect Distributed mode that is simply reading from a PubSub subscription and writing into a Kafka topic. The issue is, even if I am publishing one message to GCP PubSub, I am getting this message written twice in my Kafka topic.
How to reproduce
Deploy Kafka and Kafka connect
Create a connector with below
pubSubSource
configurations:Below are the Kafka-connect configurations:
Publish a message to the PubSub topic using the below command:
Read messages from the destination Kafka topics:
Why is this happening, is there something that I am doing wrong?
google-cloud-platform - 未发送“Google 我的商家”推送通知用于问答
当评论回复更新时,我能够收到推送通知。但是对于新问题,更新问题和问题的答案不会通过推送通知通知。我订阅了所有更改。
网址:https ://mybusiness.googleapis.com/v4/accounts/{accountno}/notifications
输出:
我在 pubsub 设置中也给予了必要的权限
google-cloud-platform - 使用 Dataflow 将 csv 数据从 Pub/Sub 订阅流式传输到 BigQuery
使用 GCP 探索 ETL 过程。我在 Dataflow 中使用 Pub/Sub Subscription to BigQuery 模板。
Pub/Sub Subscription 中的消息数据为 csv 格式,如下所示
53466,06/30/2020,,特立尼达和多巴哥,2020-07-01 04:33:52,130.0,8.0,113.0
这会在加载到 BigQuery 表时出现错误。如何在模板中将 CSV 数据转换为 JSON?
google-cloud-pubsub - Q&A 没有出现在 pub sub 通知中
新评论和谷歌更新通知即将到来时,谷歌问答的发布/订阅通知不会到来。请让我知道任何解决方案
google-cloud-pubsublite - PubSub Lite:确认当前积压的所有消息
如何确认当前积压在 Google PubSub Lite 订阅中的所有消息。我尝试使用
但我不知道如何相应地设置偏移量。
apache-kafka - Pub/Sub Lite 延迟消费者
我正在使用 Kafka 延迟主题消费consumer.pause(<partitions>)
。
Pub/Sub Kafka shim 将 pause 变成 NoOp:
是否有任何关于如何将 pub sub lite 主题的消费延迟设定的持续时间的文档?
即我想使用来自 Pub/Sub Lite 主题的所有消息,但有 4 分钟的综合延迟。
这是我使用 Kafka 原生的算法:
- 称呼
consumer.poll()
- 恢复所有分配的分区
consumer.resume(consumer.assignment())
- 将以前
delayed
的记录与最近轮询的记录结合起来 - 将记录分开
- 足以处理的记录
- 记录还太年轻,无法处理
- 为任何太年轻的记录暂停分区
consumer.pause(<partitions of too young>)
- 保留一个太年轻的记录缓冲区,以便在下一次通过时重新考虑,称为
delayed
- 处理足够老的记录
- 冲洗,重复
我们只提交足够老的记录的偏移量,如果进程死亡,“太年轻”缓冲区中的任何记录都将保持未提交,并且在随后的重新平衡中接收分区的任何消费者都会重新访问它们。
这种算法是否有更通用的形式可以与原生 Kafka 和 Pub/Sub Lite 一起使用?
编辑:CloudTasks 在这里是个坏主意,因为它断开了偏移提交链。我需要确保我只为从下游系统得到确认的记录提交偏移量。