0

我对 KOPS 有一件奇怪的事情。启动到新 VPC 后,我似乎无法kubectl配置到创建的集群(没有这样的主机)。

查看 route53 记录 (api.dev.mydomain.co) 我可以看到它适当地指向 ELB。快速 ELB 检查显示所有已注册的实例都已停止服务。

无法通过 SSH 连接到主实例(没有公共 IP),甚至无法通过堡垒(带有私钥的 ssh 要求输入我不知道的密码短语 -> 拒绝访问)。

我尝试了几种不同的网络覆盖,以及较旧的 kops 版本,但没有任何效果。

想法或想法?我是否遗漏了某些内容或我的 AWS 账户配置错误?以前确实可以在不同的帐户上使用。

kops create cluster \
  --cloud aws \
  --node-count 2 \
  --master-count 1 \
  --zones us-east-1a,us-east-1b,us-east-1c,us-east-1d,us-east-1e,us-east-1f \
  --master-zones us-east-1a \
  --dns-zone mydomain.co \
  --node-size m4.large \
  --master-size m4.large \
  --topology private \
  --networking canal \
  --image kope.io/k8s-1.8-debian-jessie-amd64-hvm-ebs-2017-12-02 \
  --name dev.mydomain.co
4

1 回答 1

1

Master nodes could be out of service if they are not able to reach internet or resolve dns. I would check first if "DHCP Options Sets" and "Internet Gateway" are properly configured for VPC.

Regarding "passphrase" for private ssh key, it should be the same as you used when were generating the key with "ssh-keygen" command.

https://github.com/kubernetes/kops/blob/master/docs/security.md

SSH public key can be specified with the --ssh-public-key option, and it defaults to ~/.ssh/id_rsa.pub

于 2018-05-30T21:30:00.807 回答