0

我已经在 Virtual Box 中设置并安装了带有两个 ubuntu 映像的 IBM Cloud 私有 CE。我可以 ssh 进入这两个图像,并从那里 ssh 进入其他图像。ICp 仪表板仅显示一个活动节点,我期望有两个。

我明确地运行了命令(从主节点上的 root 用户):

docker run -e LICENSE=accept --net=host \
  -v "$(pwd)":/installer/cluster \
  ibmcom/cfc-installer install -l \
  192.168.27.101

此命令的结果似乎是成功添加了工作节点:

PLAY RECAP *********************************************************************
192.168.27.101             : ok=45   changed=11   unreachable=0    failed=0

但是工作节点仍然没有显示在仪表板中。

我应该检查什么以确保工作节点可以为主节点工作?

4

3 回答 3

3

如果您使用 Vagrant 来配置 IBM Cloud Private,我强烈建议您尝试https://github.com/IBM/deploy-ibm-cloud-private

该项目将使用 aVagrantfile配置主/代理,然后使用 LXD在映像中配置 2 个工作人员。与运行两个完整的 Virtual Box 映像(1 个用于主/代理,1 个用于工作人员)相比,使用此配置,您将在笔记本电脑上获得更好的密度和性能。

于 2017-10-13T03:48:51.693 回答
0

您可以通过以下步骤检查您的工作节点:

  1. 检查集群节点状态 kubectl get nodes以检查新添加的工作节点的状态

  2. 如果是NotReady,检查 kubelet 日志是否有关于 kubelet 无法正常运行的错误消息:

    • ICP 2.1 systemctl status kubelet
    • icp 1.2 docker ps -a|grep kubelet获取 kubelet_containerid, docker logs kubelet_containerid
于 2017-09-13T18:30:22.110 回答
0

运行这个让 kubectl 工作

ln -sf /opt/kubernetes/hyperkube /usr/local/bin/kubectl 

如果主节点上的设置中有任何失败的 Pod,则运行以下命令来识别失败的 Pod。

运行此命令以获取在环境中运行的 pod 详细信息 kubectl -n kube-system get pods -o wide

用于重新启动任何失败的 icp pod

txt="0/";ns="kube-system";type="pods"; kubectl -n $ns get $type | grep "$txt" | awk '{ print $1 }' | xargs kubectl -n $ns delete $type

现在运行 kubectl cluster-info

kubectl 获取节点

然后 ckeck kubectl 的 cluster info 命令

Check kubectl version is giving you https://localhost:8080  or https://masternodeip:8001

kubectl 集群信息

你得到输出了吗

如果没有..那么

login to https://masternodeip:8443 using admin login

然后通过单击面板上的 admin 复制配置 clientcli 设置,将其粘贴到您的主节点中。

并运行 kubectl cluster-info

于 2018-01-19T12:10:33.463 回答