0

我正在尝试将数据推送到 AWS S3。我在( http://druid.io/docs/0.7.0/Tutorial:-The-Druid-Cluster.html )中有用户示例,但修改了 common.runtime.properties 如下

druid.storage.type=s3
druid.s3.accessKey=AKIAJWTETHZDEQLHQ7AQ
druid.s3.secretKey=tcTtvGXcqLmmMbo2hRunzlSA1P2X0O0bjVf537Nt
druid.storage.bucket=testfeed
druid.storage.baseKey=sample

以下是实时节点的日志

2015-03-02T15:03:44,809 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.query.] 加载类 [class io.druid.query.QueryConfig] 作为 [io.druid.query.QueryConfig @2edcd9d] 2015-03-02T15:03:44,843 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.query.search.] 加载类 [class io.druid.query.search.search.SearchQueryConfig]作为 [io.druid.query.search.search.SearchQueryConfig@7939de8b] 2015-03-02T15:03:44,861 INFO [main] io.druid.guice.JsonConfigurator - 加载类 [class io.druid.query.groupby.GroupByQueryConfig ] from props[druid.query.groupBy.] as [io.druid.query.groupby.GroupByQueryConfig@bea8209] 2015-03-02T15:03:44,874 INFO [main] org.skife.config.ConfigurationObjectFactory - 赋值 [100000000 ] 用于 [io.druid.query 上的 [druid.processing.buffer.sizeBytes]。DruidProcessingConfig#intermediateComputeSizeBytes()] 2015-03-02T15:03:44,878 INFO [main] org.skife.config.ConfigurationObjectFactory - 在 [io.druid.query.DruidProcessingConfig# 上为 [druid.processing.numThreads] 分配值 [2] getNumThreads()] 2015-03-02T15:03:44,878 INFO [main] org.skife.config.ConfigurationObjectFactory - 在 [io.druid.query.DruidProcessingConfig#columnCacheSizeBytes] 上为 [${base_path}.columnCache.sizeBytes] 使用方法本身()] 2015-03-02T15:03:44,880 INFO [main] org.skife.config.ConfigurationObjectFactory - 为 [com.metamx.common 上的 [${base_path}.formatString] 分配默认值 [processing-%s]。 concurrent.ExecutorServiceConfig#getFormatString()] 2015-03-02T15:03:44,956 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.query.topN.] 作为 [io.druid.query.topn.TopNQueryConfig@276503c4] 2015-03-02T15:03:44,960 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.storage.] 加载类 [class io.druid.segment.loading.LocalDataSegmentPusherConfig] 作为 [io.druid.segment .loading.LocalDataSegmentPusherConfig@360548eb] 2015-03-02T15:03:44,967 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.server.] 加载类 [class io.druid.client.DruidServerConfig] 作为 [io.druid.client.DruidServerConfig @ 75ba7964] 2015-03-02T15:03:44,971 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid.announcer.] 加载类 [class io.druid.server.initialization.BatchDataSegmentAnnouncerConfig] 作为 [io. druid.server.initialization.BatchDataSegmentAnnouncerConfig@1ff2a544] 2015-03-02T15:03:44,984 INFO [main] io.druid.guice.JsonConfigurator - 从 props[druid. zk.paths.] as [io.druid.server.initialization.ZkPathsConfig@58d3f4be] 2015-03-02T15:03:44,990 INFO [main] io.druid.guice.JsonConfigurator - 加载类 [class io.druid.curator. CuratorConfig] 来自 props[druid.zk.service.] 作为 [io.druid.curator.CuratorConfig@5fd11499]

4

1 回答 1

0

我得到了这个问题。我错过了 common.runtime.properties 中的 s3 扩展。添加后,数据开始被推送到 s3。

于 2015-03-03T08:30:08.403 回答