1

我正在尝试将 mysql 表中的 1600 万个文档(47gb)索引到 elasticsearch 索引中。我正在使用jparante 的 elasticsearch jdbc River来执行此操作。但是,在创建河流并等待大约 15 分钟后,整个堆内存被消耗殆尽,没有任何河流运行或文档被索引的迹象。当我有大约 10-1200 万条记录要索引时,这条河过去运行良好。我曾尝试过河流 3-4 次,但徒劳无功。

Heap Memory pre allocated to the ES process = 10g

弹性搜索.yml

 cluster.name: test_cluster

 index.cache.field.type: soft
 index.cache.field.max_size: 50000
 index.cache.field.expire: 2h

 cloud.aws.access_key: BBNYJC25Dij8JO7YM23I(fake)
 cloud.aws.secret_key: GqE6y009ZnkO/+D1KKzd6M5Mrl9/tIN2zc/acEzY(fake)
 cloud.aws.region: us-west-1

 discovery.type: ec2
 discovery.ec2.groups: sg-s3s3c2fc(fake)
 discovery.ec2.any_group: false
 discovery.zen.ping.timeout: 3m

 gateway.recover_after_nodes: 1
 gateway.recover_after_time: 1m

 bootstrap.mlockall: true

 network.host: 10.111.222.33(fake)

河流.sh

curl -XPUT 'http://--address--:9200/_river/myriver/_meta' -d '{
    "type" : "jdbc",
    "jdbc" : {
        "driver" : "com.mysql.jdbc.Driver",
        "url" : "jdbc:mysql://--address--:3306/mydatabase",
        "user" : "USER",
        "password" : "PASSWORD",
        "sql" : "select * from mytable order by creation_time desc",
        "poll" : "5d",
        "versioning" : false
    },
    "index" : {
        "index" : "myindex",
        "type" : "mytype",
        "bulk_size" : 500,
        "bulk_timeout" : "240s"
    }
}'

系统属性:

16gb RAM
200gb disk space
4

1 回答 1

0

根据您的 elasticsearch-river-jdbc 版本(使用 查找ls -lrt plugins/river-jdbc/),此错误可能已关闭(https://github.com/jprante/elasticsearch-river-jdbc/issues/45

否则在 Github 上提交错误报告。

于 2013-02-28T15:20:44.587 回答