我是 Redshift 和 AWS 生态系统的新手。我正在寻找将数据更改从本地 Oracle EBS 表流式传输到 Redshift 的选项或最佳实践。
- 是否应该将 S3 用作暂存区?因此 Oracle->S3->Redshift?这对将 Oracle 表实时流式传输到 Redshift 有好处吗?
- 有什么方法可以绕过 S3 分段并执行 Oracle->AWS Kinesis(Firehose)->Redshift?如果是这样,是否有这样的场景我可以阅读?
- 使用 Kafka 而不是 AWS Kinesis 怎么样?
- AWS Kinesis 或 Kafka 是否可以直接从本地 Oracle 实例中提取?
- 是否有其他替代品/组件、ETL 工具可将近实时或近乎实时的数据加载到 Redshift?
有大量表要从本地 Oracle 流式传输。我是 Redshift 的新手,但熟悉 Oracle、SQL Server、PG。对不起,如果我在这里完全被打败了。
请帮助:)任何想法和/或参考将不胜感激......