0

我目前正在尝试了解 k8s 和 linkerd。我之前使用过 docker-compose 和 consul。

我还没有完全弄清楚我做错了什么,所以如果有人可以检查逻辑并查看错误在哪里,我会很高兴。

我在minikube本地使用并想使用 GCE 进行部署。

我基本上是在尝试获得一个简单的容器,该容器运行在 k8s 和 linkerd 中运行的节点应用程序,但由于某些原因,我无法让路由正常工作。

config.yaml

apiVersion: v1
kind: ConfigMap
metadata:
  name: l5d-config
data:
  config.yaml: |-
    admin:
      port: 9990

    namers:
    - kind: io.l5d.k8s
      experimental: true
      host: localhost
      port: 8001

    routers:
    - protocol: http
      label: outgoing
      baseDtab: |
        /srv        => /#/io.l5d.k8s/default/http;
        /host       => /srv;
        /http/*/*   => /host;
        /host/world => /srv/world-v1;
      interpreter:
        kind: default
        transformers:
        - kind: io.l5d.k8s.daemonset
          namespace: default
          port: incoming
          service: l5d
      servers:
      - port: 4140
        ip: 0.0.0.0

    - protocol: http
      label: incoming
      baseDtab: |
        /srv        => /#/io.l5d.k8s/default/http;
        /host       => /srv;
        /http/*/*   => /host;
        /host/world => /srv/world-v1;
      interpreter:
        kind: default
        transformers:
        - kind: io.l5d.k8s.localnode
      servers:
      - port: 4141
        ip: 0.0.0.0

然后我部署了一个deamonset我理解的,这是最明智的使用方式linkerd

apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
  labels:
    app: l5d
  name: l5d
spec:
  template:
    metadata:
      labels:
        app: l5d
    spec:
      volumes:
      - name: l5d-config
        configMap:
          name: "l5d-config"
      containers:
      - name: l5d
        image: buoyantio/linkerd:0.8.6
        env:
        - name: POD_IP
          valueFrom:
            fieldRef:
              fieldPath: status.podIP
        args:
        - /io.buoyant/linkerd/config/config.yaml
        ports:
        - name: outgoing
          containerPort: 4140
          hostPort: 4140
        - name: incoming
          containerPort: 4141
        - name: admin
          containerPort: 9990
        volumeMounts:
        - name: "l5d-config"
          mountPath: "/io.buoyant/linkerd/config"
          readOnly: true

      - name: kubectl
        image: buoyantio/kubectl:v1.4.0
        args:
        - "proxy"
        - "-p"
        - "8001"

然后,我使用我构建的 docker 容器部署复制控制器:

apiVersion: v1
kind: ReplicationController
metadata:
  name: testservice
spec:
  replicas: 3
  selector:
    app: hello
  template:
    metadata:
      labels:
        app: hello
    spec:
      dnsPolicy: ClusterFirst
      containers:
      - name: service
        image: eu.gcr.io/xxxx/testservice:1.0
        env:
        - name: NODE_NAME
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        - name: POD_IP
          valueFrom:
            fieldRef:
              fieldPath: status.podIP
        - name: http_proxy
          value: $(NODE_NAME):4140
        command:
        - "pm2-docker"
        - "processes.json"
        ports:
        - name: service
          containerPort: 8080

然后当我进入minikube service l5d服务并显示链接器时,但我没有得到应该显示的默认页面。

为了测试一切是否正常,我构建了另一个直接指向端口 8080 的服务,然后它可以工作,但不是通过 linkerd 代理。

有人能发现错误吗?提前非常感谢。

4

2 回答 2

2

我们在 linkerd Slack 中讨论了一些额外的细节。问题不在于配置本身,而在于没有在请求中设置主机标头。

上面的配置会根据主机头进行路由,所以这个头必须对应一个服务名称。curl -H "Host: world" http://$IPADDRESS(或其他)会起作用的。

(也可以基于请求的其他位进行路由,例如 HTTP 请求的 URL 路径。)

于 2017-02-18T21:33:24.140 回答
1

多亏了 linkerd slack 通道和一些进一步的尝试,我设法弄清楚并构建了两个相互通信、发布和获取数据的服务。这只是为了掌握linkerd。当我有时间时,我会写一个关于它的教程,以便其他人可以从中学习。

我的复制控制器中缺少 kubectl 代理:

- name: kubectl
  image: buoyantio/kubectl:1.2.3
  args:
   - proxy
   - "-p"
   - "8001"
于 2017-02-19T10:38:15.817 回答