我们有一个系统,其中我们的主要数据存储(和“通用数据源”)是 Postgres,但我们实时以及每晚汇总复制该数据。我们目前复制到 Elasticsearch、Redis、Redshift(仅限每晚),并且还在添加 Neo4j。
我们的 ETL 管道已经变得足够广泛,以至于我们开始研究Airflow和Luigi等工具,但从我最初的研究中可以看出,这些工具几乎完全用于批量加载。
是否有任何工具可以处理既可以处理大批量 ETL 过程也可以处理动态、大容量、单个记录复制的 ETL 过程?Airflow 或 Luigi 会处理这个问题,而我只是错过了它吗?
谢谢!