微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Python中分词第三方库是什么?Python如何用jieba库完成中文分词

python中文分词第三方库是jieba库,而这一篇文章所要来介绍的内容就是,python使用jieba库来完成中文分词操作的消息教程。想要学习这个方法和知识的小伙伴都可以来看看这篇文章,说不定就对自己有所帮助呢。

一、精确模式

在使用它之前需要用pip工具将jieba库安装好才可以,而它又分为三种分词方式,所调用方法也是不同的。其中精确模式就是将字符串分割成中文词组,代码示例如下所示:

import jieba
ls = jieba.lcut("黑夜给了我黑色的眼睛,我却用它来寻找光明")
print(ls)
['黑夜', '给', '了', '我', '黑色', '的', '眼睛', ',', '却', '用', '它', '来', '寻找', '光明']

输出结果就可以看出来,精确模式下中文分词,是按照名词和动词来进行划分的。例如它将给了划分开来,却将黑色和眼睛这种名词又划分成一个词语。

二、全模式

另外的一种分词方式就是全模式,它的作用就是将字符串之中全部具有分词可能的词语都列出来。相对来说执行速度会慢一些,但是准确度应该是最高的,代码如示例如下所示:

ls = jieba.lcut("黄河之水天上来,奔流到海不复回", cut_all=True)
print(ls)
['黄河', '之', '水', '天上', '上来', '奔流', '流到', '海', '不复', '回']

三、搜索模式

而自后一种中文分词模式叫做搜索模式,它主要是在精确模式分词基础上,对于一些过长的次元再次进行拆分来得到最为适合搜索的关键词,代码示例如下所示:

ls = jieba.lcut_for_search("为什么我的眼里常含泪水,因为我对这土地爱得深沉")
print(ls)
['什么', '为什么', '眼里', '常含', '泪水', '因为', '对', '这', '土地', '爱得', '深沉']

以上就是关于“Python中分词第三方库是什么?Python如何用jieba库完成中文分词”的全部内容了,希望对你有所帮助。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐