0

简而言之,我需要将多个字段和值的映射从一个索引交换到结果索引。

以下是场景。

索引 1结构 [字段 => 值] [已存储]

Doc 1    
keys => keyword1;    
Ids => id1, id1, id2, id3, id7, id11, etc.. 

Doc 2    
keys => keyword2;    
Ids => id3, id11, etc..

索引 2结构 [字段 => 值] [已存储]

Doc 1    
ids => id1    
keys => keyword1, keyword1

Doc 3    
ids => id3    
keys => keyword1, keyword2, etc..

请注意,keys<->ids映射在结果索引中是相反的。

就时间复杂度而言,您认为实现这一目标的最有效方法是什么?..

我能想到的唯一方法是..

1) index1Reader.terms();    
2) Process only terms belonging to "Ids" field    
3) For each term, get TermDocs    
4) For each doc, load it, get "keys" field info    
5) Create a new Lucene Doc, add 'Id', multi Keys, write it to index2.     
6) Go to step 2.

由于存储了这些字段,我确信有多种方法可以做到这一点。

请用任何表演技巧指导我。考虑到 Index1 的大小约为 6GB,即使是最轻微的改进也会对我的方案产生巨大影响。

总数 独特关键词:1800万;总数 唯一 ID:90 万

有趣的更新

优化一

  • 在添加新文档时,不是创建多个重复的“字段”对象,而是使用“”分隔符创建单个 StringBuffer,然后将整个添加为单个字段似乎有高达 25% 的改进。

更新 2:代码

    public void go() throws IOException, ParseException {
    String id = null;
    int counter = 0;
    while ((id = getNextId()) != null) { // this method is not taking time..
        System.out.println("Node id: " + id);
        updateIndex2DataForId(id);
        if(++counter > 10){
            break;
        }
    }
    index2Writer.close();
}

private void updateIndex2DataForId(String id) throws ParseException, IOException {
    // Get all terms containing the node id
    TermDocs termDocs = index1Reader.termDocs(new Term("id", id));
    // Iterate
    Document doc = new Document();
    doc.add(new Field("id", id, Store.YES, Index.NOT_ANALYZED));
    int docId = -1;        
    while (termDocs.next()) {
        docId = termDocs.doc();
        doc.add(getKeyDataAsField(docId, Store.YES, Index.NOT_ANALYZED));            
    }
    index2Writer.addDocument(doc);
}

private Field getKeyDataAsField(int docId, Store storeOption, Index indexOption) throws CorruptIndexException,
        IOException {
    Document doc = index1Reader.document(docId, fieldSelector); // fieldSel has "key"
    Field f = new Field("key", doc.get("key"), storeOption, indexOption);
    return f;
}
4

1 回答 1

0

FieldCache 的使用就像一个魅力......但是,我们需要分配越来越多的 RAM 来容纳堆上的所有字段。

我已经用下面的代码片段更新了上面的 updateIndex2DataForId() ..

private void updateIndex2DataForId(String id) throws ParseException, IOException {
    // Get all terms containing the node id
    TermDocs termDocs = index1Reader.termDocs(new Term("id", id));
    // Iterate
    Document doc = new Document();
    doc.add(new Field("id", id, Store.YES, Index.NOT_ANALYZED));
    int docId = -1;
    StringBuffer buffer = new StringBuffer();
    while (termDocs.next()) {
        docId = termDocs.doc();
        buffer .append(keys[docId] + " "); // keys[] is pre-populated using FieldCache                 
    }
    doc.add(new Field("id", buffer.trim().toString(), Store.YES, Index.ANALYZED));   
    index2Writer.addDocument(doc);
}

String[] keys = FieldCache.DEFAULT.getStrings(index1Reader, "keywords");

它让一切变得更快,我不能告诉你确切的指标,但我必须说非常重要。

现在该程序正在一些合理的时间内完成。无论如何,我们非常感谢您提供进一步的指导。

于 2012-08-01T05:12:23.320 回答