7.1.1. FoolNLTK

FoolNLTK中文处理工具包

7.1.1.1. 特点

  • 可能不是最快的开源中文分词,但很可能是最准的开源中文分词

  • 基于BiLSTM 模型训练而成

  • 包含分词,词性标注,实体识别, 都有比较高的准确率

  • 用户自定义词典

  • 可训练自己的模型

  • 批量处理

7.1.1.2. 定制自己的模型

get clone https://github.com/rockyzhengwu/FoolNLTK.git
cd FoolNLTK/train

详细训练步骤可参考文档

仅在 linux Python3  环境测试通过

7.1.1.3. 安装

pip install foolnltk

7.1.1.4. 使用说明

7.1.1.4.1. 分词

import fool

text = "一个傻子在北京"
print(fool.cut(text))
# ['一个', '傻子', '在', '北京']

命令行分词, 可指定-b参数,每次切割的行数能加快分词速度

python -m fool [filename]

7.1.1.4.2. 用户自定义词典

词典格式格式如下,词的权重越高,词的长度越长就越越可能出现, 权重值请大于 1

难受香菇 10
什么鬼 10
分词工具 10
北京 10
北京天安门 10

加载词典

import fool
fool.load_userdict(path)
text = ["我在北京天安门看你难受香菇", "我在北京晒太阳你在非洲看雪"]
print(fool.cut(text))
#[['我', '在', '北京', '天安门', '看', '你', '难受', '香菇'],
# ['我', '在', '北京', '晒太阳', '你', '在', '非洲', '看', '雪']]

删除词典

fool.delete_userdict();

7.1.1.4.3. 词性标注

import fool

text = ["一个傻子在北京"]
print(fool.pos_cut(text))
#[[('一个', 'm'), ('傻子', 'n'), ('在', 'p'), ('北京', 'ns')]]

7.1.1.4.4. 实体识别

import fool

text = ["一个傻子在北京","你好啊"]
words, ners = fool.analysis(text)
print(ners)
#[[(5, 8, 'location', '北京')]]

7.1.1.5. 其他语言版本

Java 版

7.1.1.6. 注意

  • 有找不到模型文件的, 可以看下sys.prefix,一般默认为/usr/local/