1

我正在尝试在 Pod 终止之前将日志传输到 S3。为此,我们需要

  1. 将我们的容器配置为具有 AWS-CLI。我使用 postStart 钩子中的脚本成功地做到了这一点。

  2. 执行 AWS S3 命令将文件从 hostPath 传输到 S3 存储桶。差点有这个!!!

这是我的 Kube 部署(在 minikube 上运行):

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: logtransfer-poc
spec:
  replicas: 1
  template:
    metadata:
      labels:
        app: logs
    spec:
      volumes:
      - name: secret-resources
        secret:
          secretName: local-secrets
      - name: testdata
        hostPath:
          path: /data/testdata
      containers:
        - name: logtransfer-poc
          image: someImage
          ports:
          - name: https-port
            containerPort: 8443
          command: ["/bin/bash","-c","--"]
          args: ["while true; do sleep 30; done;"]
          volumeMounts:
          - name: secret-resources
            mountPath: "/data/apache-tomcat/tomcat/resources"
          - name: testdata
            mountPath: "/data/testdata"
          lifecycle:
            postStart:
              exec:
                command: ["/bin/sh", "-c", "cd /data/testdata/ && chmod u+x installS3Script.sh && ./installS3Script.sh > postInstall.logs"]
            preStop:
              exec:
                command: ["/bin/sh", "-c", "cd /data/testdata/ && chmod u+x transferFilesToS3.sh && ./transferFilesToS3.sh > postTransfer.logs"]
          terminationMessagePath: /data/testdata/termination-log
      terminationGracePeriodSeconds: 30
      imagePullSecrets:
        - name: my-docker-credentials

安装 S3Script.sh

#!/bin/bash

apt-get update
curl -O https://bootstrap.pypa.io/get-pip.py
python3 get-pip.py --user
chmod u+x get-pip.py
echo "PATH=$PATH:/root/.local/bin" >> ~/.bashrc && echo "Path Exported !!"
source ~/.bashrc && echo "Refreshed profile !"
pip3 install awscli --upgrade --user
mkdir -p ~/.aws
cp /data/testdata/config/config ~/.aws
cp /data/testdata/config/credentials ~/.aws

transferFilesToS3.sh

#!/bin/bash

# export AWS_DEFAULT_PROFILE=admin
echo "Transfering files to S3.."
aws s3 cp /data/testdata/data s3://testpratham --recursive --profile admin
aws s3 ls s3://testpratham --profile admin
echo "Transfer to S3 successfull !!"

失败的原因:transferFilesToS3.sh 成功运行但它不执行 AWS 命令​​..

什么有效:我创建了测试日志文件并将 aws 命令放在 postStart 钩子(installS3Script.sh)中,它工作正常!

我想我可能会以不同的方式研究 preStop 挂钩。我读了几篇关于生命周期preStop钩子的文章。还有一个关于使用preStop hook with grace period的相关问题。

感谢您对我可能缺少的任何建议/帮助。

4

1 回答 1

1

也许使用Skbn会更容易。

Skbn是一个用于在 Kubernetes 和云存储提供商之间复制文件和目录的工具。它以 1981 年的电子游戏 推箱子命名。Skbn 使用内存缓冲区进行复制过程,以避免过多的内存消耗。Skbn 目前支持以下提供商: - AWS S3 - Minio S3 - Azure Blob Storage

你可以使用:

skbn cp \
    --src k8s://<namespace>/<podName>/<containerName>/<path> \
    --dst s3://<bucket>/<path>

您应该查看集群内使用情况,因为它需要设置 ClusterRole、ClusterRoleBinding 和 ServiceAccount。

于 2019-02-22T12:19:01.437 回答