我阅读了以下教程: http ://druid.io/docs/latest/tutorials/tutorial-loading-batch-data.html 并使用 index_task 将数据放入 druid。我还发出了时间边界查询,一切正常。
但是,当我尝试插入大量数据(~ 2 000 000 条记录)时,它需要太多时间。
是否可以提高 index_task 的性能以及如何做到这一点?
是否可以通过:
段粒度的变化?
用 HadoopDruidIndexer 替换 index_task?
将数据拆分为更小的部分并同时插入?
增加节点数或每个节点的内存?
还要别的吗?
请帮忙。