0

以下是我在 flume.conf 中的设置:

agent.sources = srcpv
agent.channels = chlpv
agent.sinks = hdfsSink
agent.sources.srcpv.type = exec
agent.sources.srcpv.command = tail -F /var/log/collector/web/pv.log
agent.sources.srcpv.channels = chlpv
agent.channels.chlpv.type = memory
agent.channels.chlpv.capacity = 1000000
agent.channels.chlpv.transactionCapacity = 100
agent.sinks.hdfsSink.type = hdfs
agent.sinks.hdfsSink.channel = chlpv
agent.sinks.hdfsSink.hdfs.path = hdfs://hadoop01:8020/flume/web/pv/
agent.sinks.hdfsSink.hdfs.filePrefix = pv-
agent.sinks.hdfsSink.hdfs.rollSize = 1024
agent.sinks.hdfsSink.hdfs.rollInterval= 30
agent.sinks.hdfsSink.hdfs.rollCount = 10

我希望文件可以按一定的大小或间隔滚动,但滚动设置(rollSize、rollInterval、rollCount)无法生效,没有生成hdfs文件。几分钟后我得到了这个错误:

[SinkRunner-PollingRunner-DefaultSinkProcessor] ERROR org.apache.flume.sink.hdfs.HDFSEventSink - process failed java.lang.OutOfMemoryError: GC overhead limit exceeded

谁能帮忙指出适当的 HDFS Sink 设置?

4

1 回答 1

0

运行 flume 时,您似乎用完了 Java 内存。

您可以尝试在 flume-env.sh 文件中添加以下行:

export JAVA_OPTS="-Xms100m -Xmx2g -Dcom.sun.management.jmxremote"

根据您的系统配置增加值 Xmx。

希望这可以帮助 :)

于 2018-08-02T16:23:01.780 回答