2

Locust worker 配置不得不修改,当前的 worker 是 130 个节点。我将部署导出为 yaml 文件,编辑文件并在 locust worker 中应用修改。

工作人员已重新启动并使用新配置重新初始化。它们都使用我之前修改过的新环境变量运行。

问题是在蝗虫仪表板中节点的数量已经翻了一番,分别是工人已经重新启动,当他们起床时,蝗虫用户界面已将其添加为新节点,但没有删除不活动的节点。

这是目前的情况:

host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l
134
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l
133
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # 

仪表板:

STATUS
HATCHING
85 users
Edit
**SLAVES
260**
RPS
0
FAILURES
0%
 Reset Stats
StatisticsFailuresExceptions
Type    Name    # requests  # fails Median  Average Min Max Content Size    # reqs/sec
Total   0   0   0   0   0   0   0   0
Download request statistics CSV
Download response time distribution CSV

快速重新初始化 locust master 以获得实际节点数是什么?

谢谢

4

3 回答 3

0

我认为这里列出了类似的问题。当您启动一个工作器并将其关闭时,它仍会在 UI 中列为缺失。我认为这是因为蝗虫没有办法让工人通知主人他们还没有准备好工作。如前所述,删除主节点然后重新启动它将重置 UI。

与此同时,我认为开发人员知道这个问题。

于 2021-07-23T17:40:20.447 回答
0

问题似乎是该节点一旦尝试注册并掌握,如果没有启动,就不会重试。两个主人都没有经常交流来看看我

删除主 pod 并等待它备份。现在它将有零个奴隶。

然后删除节点/工作 pod 以便它们重新注册。要删除带有标签的 pod,您可以使用以下命令

  # Delete pods and services with label name=myLabel.
  kubectl delete pods,services -l name=myLabel
于 2017-10-11T12:08:35.057 回答
0

现在,您可以重置主节点仪表板的唯一方法是重新安排主节点并从干净的 pod 开始。您可以使用 来执行此操作kubectl scale deployment/locust-master --replicas=0并使用kubectl scale deployment/locust-master --replicas=1. 但这将丢弃您已经在 master 上收集的任何结果。

这更像是一个蝗虫问题,然后是 k8s 可以解决 imo 的问题。

于 2016-12-02T15:25:21.653 回答