正在加载
请稍等

菜单

Home 标签归档: nlp
Home 标签归档: nlp
thumb19

中文分词一些思路的总结

算法编程 by   阅读量 4,211

中文分词是中文自然语言处理的第一步,也是最为核心的基础,分词的好坏和准确率直接影响到后续进行的其他处理和分析。常用的中文分词工具包括jieba分词、哈工大分词、Stanford分词等,但是除了会使用这些工具外,掌握相关的模型和思想更为重要。 1 mmseg 每次从一个完整的句子里,按照从左向右的顺序,识别出多种不同的3个…

阅读全文

21 2016-07