1. 中文分词

    分词技术就是搜索引擎针对用户提交查询的关键词串进行的查询处理后根据用户的关键词串用各种匹配方法进行分词的一种技术。

    中文分词(Chinese Word Segmentation)指的是将一个汉字序列(句子)切分成一个一个的单独的词,分词就是将连续的字序列按照一定的规则重新组合成词序列的过程。

    现在分词方法大致有三种:基于字符串配置的分词方法、基于理解的分词方法和基于统计的分词方法。

    今天为大家分享一个国内使用人数最多的中文分词工具GoJieba。

    源代码地址:

    支持多种分词方式,包括: 最大概率模式, HMM新词发现模式, 搜索引擎模式, 全模式

    • 核心算法底层由C++实现,性能高效。

    • 无缝集成到 Bleve 到进行搜索引擎的中文分词功能。

    • 字典路径可配置,NewJieba(…string), NewExtractor(…string) 可变形参,当参数为空时使用默认词典(推荐方式)

    • 全模式:把短语中所有的可以组成词语的部分扫描出来,速度非常快,会有歧义

    • 搜索引擎模式:精确模式基础上,对长词再次切分,提升引擎召回率,适用于搜索引擎分词

    • 采用动态规划查找最大概率路径,找出基于词频最大切分组合
    • 对于未登录词,采用汉字成词能力的HMM模型,采用Viterbi算法计算
    • 基于Viterbi算法做词性标注
    • 基于TF-IDF和TextRank模型抽取关键词

    运行结果

    1. time ./gojieba
    2. 万里长城万里长 全模式:万里|万里长城|里长|长城|万里|里长
    3. 万里长城万里长 精确模式:万里长城|万里|长
    4. 万里长城万里长 精确模式:万里长城|万里长
    5. 北京鲜花速递 新词识别:北京|鲜花|速递
    6. 北京鲜花速递 搜索引擎模式:北京|鲜花|速递
    7. 北京市朝阳公园 词性标注:北京市/ns|朝阳/ns|公园/n
    8. 鲁迅先生 搜索引擎模式:鲁迅|先生
    9. 鲁迅先生 Tokenize Default Mode搜索引擎模式:[{鲁迅 0 6} {先生 6 12}]
    10. 鲁迅先生 Extract:[{鲁迅 8.20023407859} {先生 5.56404756434}]
    11. real 0m1.746s

    分词技术

    转自公众号:sir小龙虾