使用scws组件分词和phpanalysis分词类实现简单的php分词搜索

使用scws组件分词和phpanalysis分词类实现简单的php分词搜索

关键字:php  分词  搜索

什么是scws

SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。

这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。

SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模块, 可在 PHP 中快速而方便地使用分词功能。

分词算法上并无太多创新成分,采用的是自己采集的词频词典,并辅以一定的专有名称,人名,地名, 数字年代等规则识别来达到基本分词,经小范围测试准确率在 90% ~ 95% 之间, 基本上能满足一些小型搜索引擎、关键字提取等场合运用。首次雏形版本发布于 2005 年底。

下载地址(需要下载SCWS规则集文件、xdb词典文件和对应版本的php_scws.dll扩展库)

http://www.xunsearch.com/scws/

安装php扩展

将php_scws.dll的扩展库放入php目录下的ext目录中

然后再php.ini中添加以下配置,添加完成后重启

[scws]

extension = php_scws.dll

scws.default.charset = gbk

scws.default.fpath = "C:\Program Files\scws\etc"

注:extension的路径要确保能加载ext目录下的.dll扩展。

scws.default.fpath的目录是分词规则文件的绝对目录

新建一个目录(C:\Program Files\scws),将xdb文件放入。如图:

将规则集文件(规则集文件在scws的全部源代码的压缩包中可以找到)放到etc目录下,如图:

注:规则集和字典包的作用再官网里面很详细

下面就来实际操作一下:

<?php

header("Content-Type:text/html;charset=utf-8");

$sc = scws_new();   //实例分词类

$sc->set_charset(‘utf-8‘);      //设置分词时所用的编码

$sc->set_dict(‘C:\Program Files\scws\dict.utf8.xdb‘);   //设置分词所用的字典包

$sc->set_rule(‘C:\Program Files\scws\etc\rules.utf8.ini‘);    //设置分词所用的规则

$sc->set_ignore(true);    //去掉标点符号后在分词

$sc->set_multi(true);           //复式分割

$sc->send_text(‘山东,厨具。‘);    //分词的语句

while($tmp[] = $sc->get_result()){         //获取分词结果

}

//连接数据库

mysql_connect(‘localhost‘,‘root‘,‘root‘);

mysql_select_db(‘tdmalls‘);

mysql_query(‘set names utf8‘);

//组合sql

$sql = "select article_title from th_article where ";

$len2 = count($tmp[0]);

for($j=0;$j<$len2;$j++){

if($j == $len2-1){

$sql .= " article_title like ‘%".$tmp[0][$j][‘word‘]."%‘";

}else{

$sql .= " article_title like ‘%".$tmp[0][$j][‘word‘]."%‘ and ";

}

}

$res2 = mysql_query($sql);

while($row[] = mysql_fetch_assoc($res2)){}

以上代码的分词的结果:

以上代码组合的sql(sql的组合根据自己的情况来):

以上代码搜索出来的结果:

这里关于scws的方法介绍的并不多,有需要的可以网上查找更多的使用方法

什么是phpanalysis无组件分词系统

下载地址的链接包含了这个系统的详细介绍,这个系统就是一个php的类,使用起来比较方便直接引入类文件就可以使用,但速度比scws这类组件形式的分词慢

下载地址:

http://www.phpbone.com/phpanalysis/

使用方法比较简单,将下载的文件解压放入指定目录

然后再demo中引入这个类文件就可以使用了:

header("Content-type:text/html;charset=utf-8");

require_once ‘./phpanalysis/phpanalysis.class.php‘;          //引入分词类文件

$fc = new PhpAnalysis();      //实例分词类(#注:这个步骤很耗时)

$str = ‘打造厨具‘;

$fc->SetSource($str);           //设置待分词的字符

//设置生成的分词结果数据类型,2为词典词汇及单个中日韩简繁字符及英文

$fc->resultType = 2;

$fc->StartAnalysis();      //开始分词

$arr = $fc->GetFinallyIndex();     //获取分词数组,键是词

$arr = implode(‘ ‘,array_keys($arr));

$arr = explode(‘ ‘,$arr);

//连接数据库

$m_db = mysql_connect(‘localhost‘,‘root‘,‘root‘);

mysql_select_db(‘tdmalls‘);

mysql_query(‘set names utf8‘);

//sql

$len = count(array_filter($arr));

$sql = "select article_title from th_article where ";

for($i=0;$i<$len;$i++){

if($i == $len-1){

$sql .= " article_title like ‘%".$arr[$i]."%‘";

}else{

$sql .= " article_title like ‘%".$arr[$i]."%‘ and ";

}

}

$res = mysql_query($sql);

while($row[] = mysql_fetch_assoc($res)){}

以上代码分出来的词的结果:

注:这个地方键才是分出来的词

最终搜索出来的结果:

虽然用起来方便也做了很多优化但速度还是不理想,实例化该类的时候很耗时。

该类的方法注释还算详细就不再介绍了。

时间: 2024-08-01 10:44:57

使用scws组件分词和phpanalysis分词类实现简单的php分词搜索的相关文章

PHPAnalysis中文分词类实用教程

PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一.比较重要的成员变量$resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置.$notSplitLen = 5 切分句子最短长度$toLower = false 把英文单词全部转小写$differMax = fa

Solr(四)Solr实现简单的类似百度搜索高亮功能-1.配置Ik分词器

配置Ik分词器 一 效果图 二 实现此功能需要添加分词器,在这里使用比较主流的IK分词器. 1 没有配置IK分词器,用solr自带的text分词它会把一句话分成单个的字. 2 配置IK分词器,的话它会把句子分成词组 三 下载配置分词器 1 下载分词器IK 分词器下载地址: http://download.csdn.net/detail/u013292160/9926148 2 解压下载的文件 3 将ik-analyzer-solr5-5.x.jar这个jar包放入solr项目下的WEB-INF\

IK分词器 整合solr4.7 含同义词、切分词、停止词

IK分词器如果配置成 <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <analyzer type="query" is

【转载】COM 组件设计与应用(四)——简单调用组件

原文:http://vckbase.com/index.php/wv/1211.html 一.前言 同志们.朋友们.各位领导,大家好. VCKBASE 不得了, 网友众多文章好. 组件设计怎么学? 知识库里闷头找! 摘自---杨老师打油集录 在 VCKBASE 的顶力支持下,在各位网友回帖的鼓励下,我才能顺利完成系列论文的前三回.书到本回,我们终于开始写代码啦.写点啥那?恩,有了!咱们先从如何调用现成的简单的组件开始吧,同时也顺便介绍一些相关的知识. 二.组件的启动和释放 在第三回中,大家用“小

COM组件设计与应用(四)——简单调用组件

目录(?)[-] 一.前言 二.组件的启动和释放 三.内存分配和释放 四.参数传递方向 五.示例程序 六.小结 本文摘自:http://www.vckbase.net/index.php/wv/1211 一.前言 同志们.朋友们.各位领导,大家好.   VCKBASE 不得了,     网友众多文章好.     组件设计怎么学?     知识库里闷头找!       摘自---杨老师打油集录 在 VCKBASE 的顶力支持下,在各位网友回帖的鼓励下,我才能顺利完成系列论文的前三回.书到本回,我们

分木棍(简单背包)

将若干个长度不同的木棍,分成A堆和B堆,并且保证A堆所有木棍的长度之和等于B堆所有木棍的长度之和. 输入 输入数据有多组. 每组测试数据第一行为一个正整数n(n<=100),代表总的木棍个数: 第二行为n个以空格隔开的正整数ci(ci<=100). 输出 如果n根木棍可以分成两堆木棍(A堆和B堆),并且A堆所有木棍的长度之和等于B堆所有木棍的长度之和,则输出"Yes" ,否则输出"No"(A堆和B堆中的木棍个数不必相等). #include<std

word v1.3 发布,Java 分布式中文分词组件

word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义.能准确识别英文.数字,以及日期.时间等数量词,能识别人名.地名.组织机构名等未登录词.能通过自定义配置文件来改变组件行为,能自定义用户词库.自动检测词库变化.支持大规模分布式环境,能灵活指定多种分词算法,能使用refine功能灵活控制分词结果,还能使用词频统计.词性标注.同义标注.反义标注.拼音标注等功能.提供了10种分词算法,还提供了10种文本相似度算法,同时还无缝和Lucene

一个很好的php分词类库

PHPAnalysis源程序下载与演示: PHP分词系统 V2.0 版下载 | PHP分词系统演示 | PHPAnalysis类API文档   原文连接地址:http://www.phpbone.com/phpanalysis/ 分词系统简介:PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码 更广泛,并且对utf-8编码尤为方便. 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内

php 分词

发现了一个很好的分词类库phpanalysis2.0. 原文连接地址:http://www.phpbone.com/phpanalysis/         分 词系统简介:PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方 便. 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越 快,这是正常现象,PHPAnalysis的词