当我读到 AWS 数据管道时,这个想法立即产生了 - 为 kinesis 生成统计数据并在管道中创建一个作业,该作业将使用来自 kinesis 的数据并将其复制到每小时进行一次红移。一气呵成。
但似乎管道中没有可以消耗运动的节点。所以现在我有两个可能的行动计划:
- 创建实例,其中 Kinesis 的数据将被消耗并按小时发送到 S3。管道将从那里复制到 Redshift。
- 从 Kinesis 消费并在现场直接生成 COPY 到 Redshift。
我该怎么办?没有自定义代码,是否无法仅使用 AWS 服务将 Kinesis 连接到 redshift?