SCWS 添加自定义词典

最近使用了SCWS进行中文分词。有个问题就是添加自定义词典,总结一下吧。

词典格式的话

  # WORD    TF    IDF    ATTR

学五    14.01    5.92    n

去这个网址可查:http://www.xunsearch.com/scws/demo/get_tfidf.php

自己写的,把要查的词放到txt中,然后批量查询~

require_once __DIR__.‘/func/my_curl_function.php‘;
require_once __DIR__.‘/func/simple_html_dom.php‘;
$url=‘http://www.xunsearch.com/scws/demo/get_tfidf.php‘;
$header=array(
    "Referer:http://www.xunsearch.com/scws/demo/get_tfidf.php",
"Cookie:PHPSESSID=1fuk5j3ckb7n55s5j4cltk2sd3"
);
$f= fopen(‘tfidf.txt‘,‘r‘);
$i=0;
$html=new simple_html_dom();
while (!feof($f))
{
sleep(1);
  $contents = array();
    $contents = trim(fgets($f));
   if($contents=="")continue;
         //echo $contents;
    $data[‘data‘]=urlencode(trim($contents));
    $returndata=my_curl_post($url,$data,$header);
    //var_dump($returndata);
    //正则匹配出TF IDF
preg_match(‘/WORD=.*? TF=(.*?) IDF=(.*?)<br \/>/‘,$returndata,$ret);
$tf=$ret[1];
$idf=$ret[2];
echo "\n";
echo $contents."\t".$tf."\t".$idf."\tn\r\n";
//$html->load($returndata);
//$ps=$html->find(‘p‘);
//var_dump($ret);
file_put_contents("tfidf.out",$contents."\t".$tf."\t".$idf."\tn\r\n",FILE_APPEND);
}
fclose($f);

生成好自己的字典后就可以添加了

其实只要添加$so->add_dict(‘路径‘,词典);即可.

function scws_text($string)
{
$so = scws_new();
$so->set_charset(‘utf8‘);
$so->set_ignore(true);
$so->add_dict(‘/usr/local/scws/etc/dict.xdb‘,SCWS_XDICT_XDB);
$so->add_dict(‘/usr/local/scws/etc/dict.utf8.xdb‘,SCWS_XDICT_XDB);
$so->add_dict(‘/usr/local/scws/etc/mydict.txt‘,SCWS_XDICT_TXT);
$so->send_text($string);
$text ="";
while ($tmp = $so->get_result())
{
foreach($tmp as $key=>$value){
  //print_r($tmp);
 //$tmp .= $tmp;
$text .= $value[‘word‘]." ";
}
}
//print_r($text);
$so->close();
return $text;
}

添加上就可以使用咯

时间: 2024-10-08 19:40:59

SCWS 添加自定义词典的相关文章

Hanlp添加自定义词典

词典路径  D:\hanlp\data\dictionary\custom 在该目录下有如下内容 其中可以在CustomDictionary.txt的文件中添加自定义词和词性. 添加完成之后,删除  .bin  文件,重新运行hanlp程序,等待重新生成新的 .bin 文件即可 注意:  每行共包含三个内容  :单词 词性  词频   共三列 用空格区分 单词中不能包含空格,不然会报错,而且部分词性失效. 原文地址:https://www.cnblogs.com/wys-373/p/124165

scws自定义分词库

CleverCode发现scws分词的效率挺高,研究了一下自定义分词库. 1  安装scws 安装详解:http://blog.csdn.net/clevercode/article/details/52204124. 2 没有添加自定义分词库 2.1 php代码 # vim parseWord.php <?php function parse($str) { $cws = scws_new(); $dictPath = ini_get('scws.default.fpath').'/dict.

HanLP用户自定义词典源码分析

HanLP用户自定义词典源码分析 1. 官方文档及参考链接 关于词典问题Issue,首先参考:FAQ 自定义词典其实是基于规则的分词,它的用法参考这个issue 如果有些数量词.字母词需要分词,可参考:P2P和C2C这种词没有分出来,希望加到主词库 关于词性标注:可参考词性标注 ? 2. 源码解析 分析 com.hankcs.demo包下的DemoCustomDictionary.java 基于自定义词典使用标准分词HanLP.segment(text)的大致流程.首先把自定义词添加到词库中:

使用PostgreSQL进行全文检索

* { color: #3e3e3e } body { font-family: "Helvetica Neue", Helvetica, "Hiragino Sans GB", "Microsoft YaHei", Arial, sans-serif; font-size: 15px } p { line-height: 25.6px; text-align: justify; margin: 23.7px 0 } blockquote { b

python jieba分词工具

源码地址:https://github.com/fxsjy/jieba 演示地址:http://jiebademo.ap01.aws.af.cm/ 特点 1,支持三种分词模式: a,精确模式,试图将句子最精确地切开,适合文本分析:     b,全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义:     c,搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. 2,支持繁体分词 3,支持自定义词典 安装 1,Python 2.x 下的安

.NET Core中文分词组件jieba.NET Core

特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析: 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义.具体来说,分词过程不会借助于词频查找最大概率路径,亦不会使用HMM: 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. 支持繁体分词 支持添加自定义词典和自定义词 jieba.NET Core 用法 下载代码使用VS 2017 打开,或者使用VS Code 打开项目. 选择jieba.NET 为起始项目,P

jieba分词的词性标注

号称"做最好的Python中文分词组件"的jieba分词是python语言的一个中文分词包.它的特点有: 支持三种分词模式: ? 精确模式,试图将句子最精确地切开,适合文本分析: ? 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义: ? 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. 支持繁体分词 支持自定义词典 Python 2.x 下的安装 全自动安装:easy_install jieba 或者 pip inst

[python] 使用Jieba工具中文分词及文本聚类概念

声明:由于担心CSDN博客丢失,在博客园简单对其进行备份,以后两个地方都会写文章的~感谢CSDN和博客园提供的平台.        前面讲述了很多关于Python爬取本体Ontology.消息盒InfoBox.虎扑图片等例子,同时讲述了VSM向量空间模型的应用.但是由于InfoBox没有前后文和语义概念,所以效果不是很好,这篇文章主要是爬取百度5A景区摘要信息,再利用Jieba分词工具进行中文分词,最后提出文本聚类算法的一些概念知识.        相关文章:        [Python爬虫]

jieba

# coding: utf-8 # ###jieba特性介绍 # 支持三种分词模式: # 精确模式,试图将句子最精确地切开,适合文本分析: # 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义: # 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. # 支持繁体分词. # 支持自定义词典. # MIT 授权协议. # ###分词速度 # 1.5 MB / Second in Full Mode # 400 KB / Second