22

最近我一直在尝试用斯坦福核心 NLP 训练 n-gram 实体。我遵循了以下教程 - http://nlp.stanford.edu/software/crf-faq.shtml#b

有了这个,我只能指定一元标记和它所属的类。任何人都可以指导我,以便我可以将其扩展到 n-gram。我正在尝试从聊天数据集中提取已知实体,例如电影名称。

请指导我,以防我误解了斯坦福教程,并且同样可以用于 n-gram 训练。

我坚持的是以下属性

#structure of your training file; this tells the classifier
#that the word is in column 0 and the correct answer is in
#column 1
map = word=0,answer=1

这里第一列是单词(unigram),第二列是实体,例如

CHAPTER O
I   O
Emma    PERS
Woodhouse   PERS

现在我需要将已知实体(比如电影名称)训练为电影,比如HulkTitanic等,使用这种方法会很容易。但如果我需要训练,我知道你去年夏天婴儿节外出做了什么,最好的方法是什么?

4

3 回答 3

26

在这里等待答案已经很久了。我一直无法弄清楚使用斯坦福核心完成它的方法。然而任务完成了。我也使用过 LingPipe NLP 库。只是在这里引用答案,因为我认为其他人可以从中受益。

如果您是开发人员或研究人员或其他任何人,请在深入实施之前查看Lingpipe 许可。

Lingpipe 提供了各种 NER 方法。

1)基于字典的NER

2)统计NER(基于HMM)

3)基于规则的NER等。

我使用了字典以及统计方法。

第一个是直接查找方法,第二个是基于培训的方法。

可以在此处找到基于字典的 NER 的示例

统计方法需要一个训练文件。我使用了以下格式的文件 -

<root>
<s> data line with the <ENAMEX TYPE="myentity">entity1</ENAMEX>  to be trained</s>
...
<s> with the <ENAMEX TYPE="myentity">entity2</ENAMEX>  annotated </s>
</root>

然后我使用以下代码来训练实体。

import java.io.File;
import java.io.IOException;

import com.aliasi.chunk.CharLmHmmChunker;
import com.aliasi.corpus.parsers.Muc6ChunkParser;
import com.aliasi.hmm.HmmCharLmEstimator;
import com.aliasi.tokenizer.IndoEuropeanTokenizerFactory;
import com.aliasi.tokenizer.TokenizerFactory;
import com.aliasi.util.AbstractExternalizable;

@SuppressWarnings("deprecation")
public class TrainEntities {

    static final int MAX_N_GRAM = 50;
    static final int NUM_CHARS = 300;
    static final double LM_INTERPOLATION = MAX_N_GRAM; // default behavior

    public static void main(String[] args) throws IOException {
        File corpusFile = new File("inputfile.txt");// my annotated file
        File modelFile = new File("outputmodelfile.model"); 

        System.out.println("Setting up Chunker Estimator");
        TokenizerFactory factory
            = IndoEuropeanTokenizerFactory.INSTANCE;
        HmmCharLmEstimator hmmEstimator
            = new HmmCharLmEstimator(MAX_N_GRAM,NUM_CHARS,LM_INTERPOLATION);
        CharLmHmmChunker chunkerEstimator
            = new CharLmHmmChunker(factory,hmmEstimator);

        System.out.println("Setting up Data Parser");
        Muc6ChunkParser parser = new Muc6ChunkParser();  
        parser.setHandler( chunkerEstimator);

        System.out.println("Training with Data from File=" + corpusFile);
        parser.parse(corpusFile);

        System.out.println("Compiling and Writing Model to File=" + modelFile);
        AbstractExternalizable.compileTo(chunkerEstimator,modelFile);
    }

}

为了测试NER,我使用了以下课程

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.Set;

import com.aliasi.chunk.Chunk;
import com.aliasi.chunk.Chunker;
import com.aliasi.chunk.Chunking;
import com.aliasi.util.AbstractExternalizable;

public class Recognition {
    public static void main(String[] args) throws Exception {
        File modelFile = new File("outputmodelfile.model");
        Chunker chunker = (Chunker) AbstractExternalizable
                .readObject(modelFile);
        String testString="my test string";
            Chunking chunking = chunker.chunk(testString);
            Set<Chunk> test = chunking.chunkSet();
            for (Chunk c : test) {
                System.out.println(testString + " : "
                        + testString.substring(c.start(), c.end()) + " >> "
                        + c.type());

        }
    }
}

代码礼貌:谷歌:)

于 2013-04-15T14:15:43.200 回答
16

答案基本上在您引用的示例中给出,其中“Emma Woodhouse”是一个名字。我们提供的默认模型使用 IO 编码,并假设同一类的相邻标记是同一实体的一部分。在许多情况下,这几乎总是正确的,并使模型更简单。但是,如果您不想这样做,您可以使用其他标签编码来训练 NER 模型,例如常用的 IOB 编码,您可以在其中标记事物:

Emma    B-PERSON
Woodhouse    I-PERSON

然后,可以表示相同类别但不同实体的相邻标记。

于 2013-07-10T03:40:49.443 回答
2

我面临着为自动域标记 ngram 短语的相同挑战。我一直在寻找一种有效的关键字映射,可用于在稍后阶段创建训练文件。我最终在 NLP 管道中使用了 regexNER,方法是提供一个包含正则表达式(ngram 组件术语)及其相应标签的映射文件。请注意,在这种情况下没有实现 NER 机器学习。希望这些信息对某人有所帮助!

于 2016-10-04T04:40:34.113 回答