我是WEKA的新手,我想问你几个关于WEKA的问题。 我遵循了本教程(Named Entity Recognition using WEKA)。
但我真的很困惑,根本不知道。
例如在我的.ARFF文件中:
@attribute text string
@attribute tag {CC, CD, DT, EX, FW, IN, JJ, JJR, JJS, LS, MD, NN, NNS, NNP, NNPS, PDT, POS, PRP, PRP$, RB, RBR, RBS, RP, SYM, TO, UH, VB, VBD , VBG, VBN , VBP, VBZ, WDT, WP, WP$, WRB, ,, ., :}
@attribute capital {Y, N}
@attribute chunked {B-NP, I-NP, B-VP, I-VP, B-PP, I-PP, B-ADJP, B-ADVP , B-SBAR, B-PRT, O-Punctuation}
@attribute @@class@@ {B-PER, I-PER, B-ORG, I-ORG, B-NUM, I-NUM, O, B-LOC, I-LOC}
@data
'Wanna',NNP,Y,B-NP,O
'be',VB,N,B-VP,O
'like',IN,N,B-PP,O
'New',NNP,Y,B-NP,B-LOC
'York',NNP,Y,I-NP,I-LOC
'?',.,N,O-Punctuation,O
所以,当我过滤掉字符串时,它将字符串标记为单词,但我想要的是,我想根据短语对字符串进行标记/过滤。例如,根据分块属性提取短语“New York”而不是“New”和“York”。
“B-NP”表示开始短语,“I-NP”表示下一个短语(短语的中间或末尾)。
B-PER和I-PER为班级名PERSON?
TP Rate FP Rate Precision Recall F-Measure ROC Area Class
0 0.021 0 0 0 0.768 B-PER
1 0.084 0.333 1 0.5 0.963 I-PER
0.167 0.054 0.167 0.167 0.167 0.313 B-ORG
0 0 0 0 0 0.964 I-ORG
0 0 0 0 0 0.281 B-NUM
0 0 0 0 0 0.148 I-NUM
0.972 0.074 0.972 0.972 0.972 0.949 O
0.875 0 1 0.875 0.933 0.977 B-LOC
0 0 0 0 0 0.907 I-LOC
加权平均值0.828 0.061 0.811 0.828 0.813 0.894
答案 0 :(得分:2)
在我看来,WEKA(目前)不是最好的机器学习软件来做NER ......据我所知,WEKA确实对一组示例进行了分类,对于NER它可以做到:< / p>
在这两种情况下,都不考虑邻接,这实在令人不安。另外,据我所知,R(?)也是如此。这就是为什么&#34;序列标记&#34; (NER,形态语法,语法和依赖性)通常使用软件来完成,该软件使用当前单词确定令牌类别,但也可以使用前一个,下一个单词等来确定令牌类别,并且可以输出单个令牌,但也可以输出多重表达式或更复杂的结构。
对于NER,目前通常使用CRF,参见: