1

我目前正在设置许多 Ansible 角色来设置 Kubernetes 集群。到目前为止,我的角色是提供幂等 EC2(1x Master / 2x Worker)和后续角色,以使用 Docker/Kubernetes 依赖项设置这些 master/worker 节点。我AWS ec2.ini/.py dynamic-inventory用来发现我的create_ec2角色配置的实例的 IP。

尝试使用从主节点检索的加入命令将我的工作人员加入集群时遇到问题。我有 2 个单独的角色用于 master 和 worker 配置。在主人的任务中,我得到了加入命令:

kubeadm token create --print-join-command

然后注册一个变量,然后我用它来设置主机事实:

set_fact:
  join_command: "{{ join_command_stdout.stdout_lines[0] }}"

我遇到的问题是当我在运行我的工作角色时尝试在我的工作节点上访问这个事实时。我正在尝试通过以下方式访问事实:

"{{ hostvars['tag_Type_master'].join_command }} --ignore-preflight-errors all  >> node_joined.txt"

但是它失败了,因为我为 hostvars 提供的主机显然是未定义的。

作为参考,我在我的动态清单中保存了这个值(IP 省略):

  "tag_Type_master": [
    "1.2.3.4"

我收到的错误是:

"{"msg": "The task includes an option with an undefined variable. The error was: \"hostvars['tag_Type_master']\" is undefined"

我正在努力弄清楚如何访问我的动态清单中定义的 EC2 实例的主机事实。

我尝试将 EC2 IP 直接补充到主机变量 ( hostvars['1.2.3.4'].join_command) 中,但是任务只是挂起并且什么都不做。

我也试过放入一个魔术变量(hostvars['inventory_hostname].join_command)无济于事。

似乎人们已经成功地从静态清单文件中定义的主机访问主机事实,但是由于 EC2 服务器的动态特性,将在其上创建集群,我无法使用这种方法。

运行.yml:

  name: Setup K8s master node
  hosts: tag_Name_kube_master    
  gather_facts: true    
  roles:    
  - setup_kube_master


  name: Setup K8s worker nodes
  hosts: tag_Name_kube_worker
  gather_facts: true
  roles: 
  - setup_kube_worker

setup_kube_master/tasks/set_fact.yml:

  name: Get join command for workers    
  shell: kubeadm token create --print-join-command    
  register: join_command_stdout    
  name: Persist variable for workers    
  set_fact:    
   join_command: "{{ join_command_stdout.stdout_lines[0] }}"

setup_kube_worker/tasks/get_fact.yml:

  name: join cluster
  shell: "{{ hostvars['tag_Type_master'].join_command }} --ignore-preflight-errors all  >> node_joined.txt"    
  args:    
   chdir: $HOME    
   creates: node_joined.txt
4

1 回答 1

0

因此,您自己解决此问题的方法是使用该debug:任务显示整个事实缓存并为自己找到关系:

- name: show the state of affairs
  debug: var=hostvars verbosity=0

但是,话虽如此,我很确定它tag_Type_master被定义为一个,因此不会出现,hostvars因为——顾名思义——它是vars针对主机而不是vars针对组的

您必须执行一级间接获取作为该组成员的主机:

- hosts: tag_Name_kube_worker
  tasks:
  - name: promote the "join_command" fact from the masters group
    set_fact:
      join_command: '{{ some_master.join_command }}'
    vars:
      some_master: '{{ hostvars[groups["tag_Type_master"][0]] }}'

为简洁起见,我对这个定义采取了一些自由some_master——在生产代码中,您可能希望实际检查该组是否存在并且其内容是否为空等,等等,但我大约 80% 确信它甚至可以工作如书面

你会希望它出现在run.yml两者之间,hosts: tag_Type_masterhosts: tag_Type_worker弥合两组之间的事实差距,让工人看起来好像一直都有这个join_command事实


另外,虽然这不是您所要求的,但如果您要标记这些实例"kubernetes.io/role/master": ""和/或"kubernetes.io/role": "master"您将受益于已经拥有cloud-provider预期的标签。我不知道那会是什么样子ec2.py,但我相信使用它会很便宜ansible-inventory -i ec2.py --list

kubernetes.io/role: worker即使我很确定 AWS 云提供商不关心它,我也会用相应的标签来标记工作人员,而是选择metadata.labels在现有节点上使用它来进行 ELB 注册等。

于 2019-04-27T03:53:49.063 回答