1

我一直使用 Spark Data Source 从 Parquet 写入 Kudu,写入性能很糟糕:大约 12000 行 / 秒。每行大约 160 个字节。

我们有 7 个 kudu 节点,24 个核心 + 每个 64 GB RAM + 每个 12 个 SATA 磁盘。资源似乎都不是瓶颈:tserver cpu 使用 ~3-4 核,RAM 10G,没有磁盘拥塞。

我仍然看到大部分时间写入请求都停留在排队中。任何想法表示赞赏。

W0811 12:34:03.526340  7753 rpcz_store.cc:251] Call kudu.tserver.TabletServerService.Write from 10.60.170.18:10000 (ReqId={client: 81ae6f3c6e1b4d9493ea95f87ccd1dfa, seq_no=9365, attempt_no=1}) took 13255ms (client timeout 10000).
W0811 12:34:03.526489  7753 rpcz_store.cc:255] Trace:
0811 12:33:50.270477 (+     0us) service_pool.cc:163] Inserting onto call queue
0811 12:33:50.270497 (+    20us) service_pool.cc:222] Handling call
0811 12:34:03.526316 (+13255819us) inbound_call.cc:157] Queueing success response
Related trace 'txn':
0811 12:34:03.328337 (+     0us) write_transaction.cc:101] PREPARE: Starting
0811 12:34:03.328563 (+   226us) write_transaction.cc:268] Acquiring schema lock in shared mode
0811 12:34:03.328564 (+     1us) write_transaction.cc:271] Acquired schema lock
0811 12:34:03.328564 (+     0us) tablet.cc:400] PREPARE: Decoding operations
0811 12:34:03.328742 (+   178us) tablet.cc:422] PREPARE: Acquiring locks for 24 operations
0811 12:34:03.447163 (+118421us) lock_manager.cc:377] Waited 118408us for lock on <redacted>
0811 12:34:03.447203 (+    40us) tablet.cc:426] PREPARE: locks acquired
0811 12:34:03.447203 (+     0us) write_transaction.cc:126] PREPARE: finished.
0811 12:34:03.447361 (+   158us) write_transaction.cc:136] Start()
0811 12:34:03.447366 (+     5us) write_transaction.cc:141] Timestamp: P: 1533965643563964 usec, L: 6
0811 12:34:03.447674 (+   308us) log.cc:582] Serialized 64909 byte log entry
0811 12:34:03.449561 (+  1887us) write_transaction.cc:149] APPLY: Starting
0811 12:34:03.526238 (+ 76677us) tablet_metrics.cc:365] ProbeStats: bloom_lookups=48,key_file_lookups=48,delta_file_lookups=24,mrs_lookups=0
0811 12:34:03.526260 (+    22us) log.cc:582] Serialized 237 byte log entry
0811 12:34:03.526268 (+     8us) write_transaction.cc:309] Releasing row and schema locks
0811 12:34:03.526280 (+    12us) write_transaction.cc:277] Released schema lock
0811 12:34:03.526300 (+    20us) write_transaction.cc:196] FINISH: updating metrics
Metrics: {"child_traces":[["txn",{"apply.queue_time_us":11,"cfile_cache_hit":205,"cfile_cache_hit_bytes":21900627,"num_ops":24,"prepare.queue_time_us":13057291,"prepare.run_cpu_time_us":1017,"prepare.run_wall_time_us":119378,"raft.queue_time_us":71,"raft.run_cpu_time_us":303,"raft.run_wall_time_us":304,"replication_time_us":2170,"row_lock_wait_count":1,"row_lock_wait_us":118408,"spinlock_wait_cycles":45824}]]}
4

2 回答 2

2

第一个挑战是,将具有 200 列的 23M 行表引入 Kudu(按主键划分 4 个哈希分区)需要很长时间。准确地说,它花费了 58 分钟,相当于每秒 63 行。我不敢相信 Kudu 这么慢,我们仔细检查了安装和配置文档。不幸的是,我们相信默认设置,正如我在 Kudu slack 频道上发现的(感谢 Will Berkeley!),有两个参数需要调整。具体来说:

memory_limit_hard_bytes控制 Kudu 守护进程应该使用的内存总量。

maintenance_manager_num维护线程数,推荐设置为磁盘数的1/3,用于Kudu

CDH Kudu 包裹的默认设置非常糟糕 - Kudu 受到 1Gb 内存的限制,并且仅使用 1 个维护线程。我们将后者设置为 4(12 个驱动器/3),将前者设置为 0(动态分配)。CM 不想接受 0 memory_limit_hard_bytes,我们不得不使用 CM 安全阀来覆盖它。一旦完成并且 Kudu 重新启动,我的第一个 23M 表在 240 秒内完成(每秒约 95k 行) - 好多了!从 Impala 到 Impala parquet 的 CTAS 仅需 60 秒。

于 2018-08-13T05:55:14.120 回答
0

原来这是由于我们的数据重复。我们正在使用一个包含大约 120 万行的字段,其值(即空字符串)与 Kudu 中的主键相同。因此 Kudu 更新了相同的密钥 120 万次,每次都需要获取锁,因此摄取速度随着时间的推移而下降。

我们删除了重复的关键行,提取速度提高到了 10 倍。

于 2018-08-15T12:39:46.003 回答