问题标签 [dapr]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
dapr - 以 JSON 为秘密的 Dapr 秘密存储
我有一个 Firebase 私钥,它是一个 JSON 文件,并且想使用服务器上的 Dapr 秘密存储来存储它。但是,使用密钥存储的方式:
我无法使用 Dapr 推荐的方式检索关键数据:
据我了解,秘密值只能是原始类型,如字符串、数字或布尔值。那么有没有办法将秘密值存储和检索为 JSON?
c# - 我可以减慢 Dapr PubSub 中的重试率吗
我们在基于微服务的应用程序中使用 Dapr PubSub;我们打算使用 Azure ServiceBus 作为生产中的支持服务。
当我们尝试处理消息时,如果其他服务之一或数据库不可用,那么我们会抛出异常,触发 Dapr 中的重试。我们希望它是健壮的,这样如果依赖关系只是短暂地下降,消息仍然会得到适当的处理。
问题是它重试非常快。有没有办法降低重试速度,使其更像 Dapr 处理微服务之间的请求,在每次失败时增加重试之间的差距。我们不希望它在快速重试时占用太多资源,而且它对时间要求不高;多花几分钟比不完成更重要。
我们找到了一种限制重试次数的方法,这样如果消息无效,它就不会永远重试,但不是限制重试的方法。
在这种情况下是否可以限制重试?
我们在 Linux 容器中的 AKS 上托管的 .Net 5 / Asp.Net Core 中使用 Dapr API。
docker-compose - 在 docker-compose 下运行时如何让 Dapr Service to Service Invocation 工作?
尝试使用 Dapr SDK 调用服务时收到以下错误。
这是我试图调用的服务的 docker-compose 设置:
以及调用者的设置:
这是无法正常工作的代码:
注意:消息传递工作正常。:-)
我是 Dapr 的新手,所以我一定是在做一些愚蠢的错误,也许与端口有关.. 我只是不知道!
c# - Dapr 应用程序通道未初始化,如果需要 pubsub 订阅,请确保指定 -app-port
我正在尝试使用 Dapr 在 C# 控制台应用程序中实现订阅者,但它给出了以下错误。
错误:
应用程序通道未初始化,如果需要订阅订阅,请确保指定 -app-port
成功退出应用程序
收到终止信号:成功关闭 Exited Dapr
代码:
c# - Dapr 订阅者不工作,不接收数据
我已经实现了 Dapr 订阅者,但它不工作并且它没有接收任何数据。
dapr - 如何在 .net Windows 服务中实现 Dapr 订阅者?
我需要在 Windows 服务中实现 Dapr 订阅者,我可以在 Asp.Net API 中实现它。但不在 Windows 服务中,是否有任何解决方法可以做到这一点?
azure-keyvault - Azure Kubernetes 中带有 Azure Keyvault 的 Dapr Secretstore 无法正常工作
我正在尝试在我的 Azure Kubernetes 群集中将机密存储组件与 Azure Keyvault 一起使用。我完全按照“https://docs.dapr.io/reference/components-reference/supported-secret-stores/azure-keyvault/”进行设置,但我无法检索机密。当我将 secretstore 更改为本地文件或 kubernetes 机密时,一切正常。使用 Azure 密钥保管库时,我收到以下错误:
我验证了我使用的客户端密码是正确的。谁能指出我正确的方向?
apache-kafka - 如何在 Dapr 中设置 Kafka 生产者属性?
在 Dapr 中将其用作发布/订阅组件时,是否可以设置 Kafka 生产者/消费者属性?更具体地说,我想设置 和 的compression.type
值batch.size
。
例如,Confluent Go 客户端允许您执行以下操作:
你能在 Dapr 中做类似的事情吗?
我知道发布/订阅配置中的元数据字段。但是,在我的情况下,这些太有限了。