汉语分词软件的使用 (python底下)

目前我常常使用的分词有结巴分词、NLPIR分词等等

最近是在使用结巴分词,稍微做一下推荐,还是蛮好用的。

一、结巴分词简介

利用结巴分词进行中文分词,基本实现原理有三:

  1. 基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
  2. 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
  3. 对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法

二、安装及使用(Linux)

1.下载工具包,解压后进入目录下,运行:python setup.py install

Hint:a.一个良好的习惯是,对于下载下来的软件,先看readme ,再进行操作。(没有阅读readme,直接尝试+百度,会走很多弯路);

     b.当时运行安装命令时,出现错误:no permission!  (有些人可能会遇见这种问题,这是因为权限不够的。 执行:sudo !!   其中“!!”表示上一条命令,这里指的就是上面的安装命令),使用sudo后便可正常运行。

2.在使用结巴做分词的时候,一定会用的函数是:jieba.cut(arg1,arg2);这是用于分词的函数,我们只需要了解以下三点,便可使用

  a.cut方法接受两个输入参数:第一个参数(arg1)为需要进行分词的字符串,arg2参数用来控制分词模式。

  分词模式分为两类:默认模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来,适合搜索引擎

  b.待分词的字符串可以是gbk字符串、utf-8字符串或者unicode

使用Python的人要注意编码问题,Python是基于ASCII码来处理字符的,当出现不属于ASCII的字符时(比如在代码中使用汉字),会出现错误信息:“ASCII codec can‘t encode character”,解决方案是在文件顶部加入语句: #! -*- coding:utf-8 -*-  来告诉Python的编译器:“我这个文件是用utf-8进行编码的,你要进行解码的时候,请用utf-8”。(这里记住,这个命令一定要加在文件的最顶部,如果不在最顶部,编码问题就依然存在,得不到解决)关于编码的转换,可以参考博文(ps:个人理解“import sys    reload(sys)   sys.setdefaultencoding(‘utf-8‘)”这几句话与“#! -*- coding:utf-8 -*- ”等价)

   c.jieba.cut返回的结构是一个可迭代的generator,可以使用for循环来获得分词后得到的每一个词语(unicode),也可以用list(jieba.cut(...))转化为list

3.以下举例jieba中提供的一个使用方法作为说明:

#! -*- coding:utf-8 -*-
import jieba
seg_list = jieba.cut("我来到北京清华大学", cut_all = True)
print "Full Mode:", ‘ ‘.join(seg_list)

seg_list = jieba.cut("我来到北京清华大学")
print "Default Mode:", ‘ ‘.join(seg_list)

输出结果为:

Full Mode: 我/ 来/ 来到/ 到/ 北/ 北京/ 京/ 清/ 清华/ 清华大学/ 华/ 华大/ 大/ 大学/ 学
Default Mode: 我/ 来到/ 北京/ 清华大学 

三、结巴中文分词的其他功能

1、添加或管理自定义词典

结巴的所有字典内容存放在dict.txt,你可以不断的完善dict.txt中的内容。

2、关键词抽取

通过计算分词后的关键词的TF/IDF权重,来抽取重点关键词。

时间: 2024-11-03 00:43:39

汉语分词软件的使用 (python底下)的相关文章

ubuntu安装日文分词软件MeCab及其Python插件

1.从官网上下载三个包: http://taku910.github.io/mecab/ mecab-0.996 mecab-0.996.tar.gz mecab-ipadic-2.7.0-20070801 mecab-ipadic-2.7.0-20070801.tar.gz mecab-python-0.996 mecab-python-0.996.tar.gz 2.按照官网说的安装 在安装mecab-ipadic字典时,遇到了坑.提示: mecab-config is not found i

eclipse软件安装及python工程建立

原文地址:http://www.cnblogs.com/halfacre/archive/2012/07/22/2603848.html 安装python解释器 安装PyDev: 首先需要去Eclipse官网下载:http://www.eclipse.org/,Eclipse需要JDK支持,如果Eclipse无法正常运行,请到Java官网下载JDK安装:http://www.oracle.com/technetwork/java/javase/downloads. 打开Eclipse,找到Hel

软件——机器学习与Python,if __name__ == '__main__':函数

if __name__ == '__main__': 想必很多初次接触python都会见到这样一个语句,if __name__ == "__main__": 那么这个语句到底是做什么用的呢?在解释之前,首先要声明的是,不管你是多么小白,你一定要知道的是: 1.python文件的后缀为.py: 2..py文件既可以用来直接执行,就像一个小程序一样,也可以用来作为模块被导入(比如360安全卫士,就是依靠一个个功能模块来实现的,好比360安全卫士本身框架是一个桌面,而上面的图标就是快捷方式,

结巴中文分词使用学习(python)

中文分词工具:结巴分词 github地址:https://github.com/fxsjy/jieba 分词功能 精确模式(默认):试图将句子最精确地切开,适合文本分析: 全模式,把句子中所有的可以成词的词语都扫描出来,但是不能解决歧义: 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细. 注意:jieba.cut以及jieba.cut_for_search返回的结构都是一个可迭代的 generator,并不是一个list列表.

ZH奶酪:Java调用NLPIR汉语分词系统

NLPIR工具 支持自定义词表: 可以离线使用: 下载地址:http://ictclas.nlpir.org/newsdownloads?DocId=389 在线演示:http://ictclas.nlpir.org/nlpir/ 自然语言处理与信息检索共享平台:(nlpir相关的一些软件.文档.论文.语料库等资源)http://www.nlpir.org/ 上边这个地址写的信息比较详细丰富,但是万事开头难,很多同学不知道怎么具体应该调用?下边我就把几个步骤简单介绍一下: Step1.下载 我下

汉语分词工具的研发-----

当时打酱油做的大创,除了看源代码之外,什么数学原理,始终没有动手实践过,站在巨人的肩上,就这么完成了大创.. 想不到时隔两年还要被迫回来学习,所以呀  出来混  还是要脚踏实地  亲力亲为  当时偷的懒  早晚都还要还回来的. 说到分词: 一:ICTCLAS 研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词:词性标注:命名实体识别:新词识别:同时支持

中文分词--最大正向匹配算法python实现

最大匹配法:最大匹配是指以词典为依据,取词典中最长单词为第一个次取字数量的扫描串,在词典中进行扫描(为提升扫描效率,还可以跟据字数多少设计多个字典,然后根据字数分别从不同字典中进行扫描).例如:词典中最长词为"中华人民共和国"共7个汉字,则最大匹配起始字数为7个汉字.然后逐字递减,在对应的词典中进行查找. 下面以"我们在野生动物园玩"为例详细说明一下正向与逆向最大匹配方法: 1.正向最大匹配法: 正向即从前往后取词,从7->1,每次减一个字,直到词典命中或剩下

PC端数据下载软件开发(Python)

存储工具:阿里云->对象存储 需要将数据从云端下载到本地后再进行后续分析处理. 手动下载 需要下载的文件不多时,可以用这个方式. 依次点击:阿里云->控制台->对象存储->Bucket列表->XX Bucket->文件管理 该界面下,选中数据文件后,点击 批量操作->下载 脚本下载(Python) 按照阿里云的SDK文档(有各种语言的版本,这里选的是Python),可以很快地编写下载脚本: https://help.aliyun.com/document_deta

软件——机器学习与Python,聚类,K——means

K-means是一种聚类算法: 这里运用k-means进行31个城市的分类 城市的数据保存在city.txt文件中,内容如下: BJ,2959.19,730.79,749.41,513.34,467.87,1141.82,478.42,457.64TianJin,2459.77,495.47,697.33,302.87,284.19,735.97,570.84,305.08HeBei,1495.63,515.90,362.37,285.32,272.95,540.58,364.91,188.63