标签: machine-learning stanford-nlp
我最近使用stanford segmenter进行中文分词。现在我有一个问题:一些分割结果完全不遵循我的自定义词典,例如“桃子的爱情”切成“桃子”“的”“爱情”,“58同城”切成“58”“同城“等等。 “桃子的爱情”和“58同城”都在我的自定义词典中。我希望“桃子的爱情”和“58同城”是独立的词。 分段器是否具有根据我的自定义词典首先拆分单词的界面?谢谢。