搜狗词库转txt

# 运行环境要求 python2  1 #!/usr/bin/python
  2 # -*- coding: utf-8 -*-
  3
  4 import struct
  5 import sys
  6 import binascii
  7 import pdb
  8 #搜狗的scel词库就是保存的文本的unicode编码,每两个字节一个字符(中文汉字或者英文字母)
  9 #找出其每部分的偏移位置即可
 10 #主要两部分
 11 #1.全局拼音表,貌似是所有的拼音组合,字典序
 12 #       格式为(index,len,pinyin)的列表
 13 #       index: 两个字节的整数 代表这个拼音的索引
 14 #       len: 两个字节的整数 拼音的字节长度
 15 #       pinyin: 当前的拼音,每个字符两个字节,总长len
 16 #
 17 #2.汉语词组表
 18 #       格式为(same,py_table_len,py_table,{word_len,word,ext_len,ext})的一个列表
 19 #       same: 两个字节 整数 同音词数量
 20 #       py_table_len:  两个字节 整数
 21 #       py_table: 整数列表,每个整数两个字节,每个整数代表一个拼音的索引
 22 #
 23 #       word_len:两个字节 整数 代表中文词组字节数长度
 24 #       word: 中文词组,每个中文汉字两个字节,总长度word_len
 25 #       ext_len: 两个字节 整数 代表扩展信息的长度,好像都是10
 26 #       ext: 扩展信息 前两个字节是一个整数(不知道是不是词频) 后八个字节全是0
 27 #
 28 #      {word_len,word,ext_len,ext} 一共重复same次 同音词 相同拼音表
 29
 30
 31 #拼音表偏移,
 32 startPy = 0x1540;
 33
 34 #汉语词组表偏移
 35 startChinese = 0x2628;
 36
 37 #全局拼音表
 38
 39 GPy_Table ={}
 40
 41 #解析结果
 42 #元组(词频,拼音,中文词组)的列表
 43 GTable = []
 44
 45 def byte2str(data):
 46     ‘‘‘将原始字节码转为字符串‘‘‘
 47     i = 0;
 48     length = len(data)
 49     ret = u‘‘
 50     while i < length:
 51         x = data[i] + data[i+1]
 52         t = unichr(struct.unpack(‘H‘,x)[0])
 53         if t == u‘r‘:
 54             ret += u‘n‘
 55         elif t != u‘ ‘:
 56             ret += t
 57         i += 2
 58     return ret
 59 #获取拼音表
 60 def getPyTable(data):
 61
 62     if data[0:4] != "x9Dx01x00x00":
 63         return None
 64     data = data[4:]
 65     pos = 0
 66     length = len(data)
 67     while pos < length:
 68         index = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
 69         #print index,
 70         pos += 2
 71         l = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
 72         #print l,
 73         pos += 2
 74         py = byte2str(data[pos:pos+l])
 75         #print py
 76         GPy_Table[index]=py
 77         pos += l
 78
 79
 80 #获取一个词组的拼音
 81 def getWordPy(data):
 82     pos = 0
 83     length = len(data)
 84     ret = u‘‘
 85     while pos < length:
 86
 87         index = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
 88         ret += GPy_Table[index]
 89         pos += 2
 90     return ret
 91
 92
 93 #获取一个词组
 94 def getWord(data):
 95     pos = 0
 96     length = len(data)
 97     ret = u‘‘
 98     while pos < length:
 99
100         index = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
101         ret += GPy_Table[index]
102         pos += 2
103     return ret
104
105 #读取中文表
106 def getChinese(data):
107     #import pdb
108     #pdb.set_trace()
109
110     pos = 0
111     length = len(data)
112     while pos < length:
113         #同音词数量
114         same = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
115         #print ‘[same]:‘,same,
116
117         #拼音索引表长度
118         pos += 2
119         py_table_len = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
120         #拼音索引表
121         pos += 2
122         py = getWordPy(data[pos: pos+py_table_len])
123
124         #中文词组
125         pos += py_table_len
126         for i in xrange(same):
127             #中文词组长度
128             c_len = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
129             #中文词组
130             pos += 2
131             word = byte2str(data[pos: pos + c_len])
132             #扩展数据长度
133             pos += c_len
134             ext_len = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
135             #词频
136             pos += 2
137             count  = struct.unpack(‘H‘,data[pos]+data[pos+1])[0]
138
139             #保存
140             GTable.append((count,py,word))
141
142             #到下个词的偏移位置
143             pos +=  ext_len
144
145 def deal(file_name):
146     print ‘-‘*60
147     f = open(file_name,‘rb‘)
148     data = f.read()
149     f.close()
150
151     if data[0:12] !="x40x15x00x00x44x43x53x01x01x00x00x00":
152         print "确认你选择的是搜狗(.scel)词库?"
153         sys.exit(0)
154     #pdb.set_trace()
155
156     print "词库名:" ,byte2str(data[0x130:0x338])#.encode(‘GB18030‘)
157     print "词库类型:" ,byte2str(data[0x338:0x540])#.encode(‘GB18030‘)
158     print "描述信息:" ,byte2str(data[0x540:0xd40])#.encode(‘GB18030‘)
159     print "词库示例:",byte2str(data[0xd40:startPy])#.encode(‘GB18030‘)
160
161     getPyTable(data[startPy:startChinese])
162     getChinese(data[startChinese:])
163
164 if __name__ == ‘__main__‘:
165
166     #将要转换的词库添加在这里就可以了
167     o = [‘计算机词汇大全【官方推荐】.scel‘,
168     ‘IT计算机.scel‘,
169     ‘计算机词汇大全【官方推荐】.scel‘,
170     ‘北京市城市信息精选.scel‘,
171     ‘常用餐饮词汇.scel‘,
172     ‘成语.scel‘,
173     ‘成语俗语【官方推荐】.scel‘,
174     ‘法律词汇大全【官方推荐】.scel‘,
175     ‘房地产词汇大全【官方推荐】.scel‘,
176     ‘手机词汇大全【官方推荐】.scel‘,
177     ‘网络流行新词【官方推荐】.scel‘,
178     ‘歇后语集锦【官方推荐】.scel‘,
179     ‘饮食大全【官方推荐】.scel‘,
180     ]
181
182     for f in o:
183         deal(f)
184
185     #保存结果
186     f = open(‘sougou.txt‘,‘w‘)
187     for count,py,word in GTable:
188         #GTable保存着结果,是一个列表,每个元素是一个元组(词频,拼音,中文词组),有需要的话可以保存成自己需要个格式
189         #我没排序,所以结果是按照上面输入文件的顺序
190         f.write( unicode(‘{%(count)s}‘ %{‘count‘:count}+py+‘ ‘+ word).encode(‘GB18030‘) )#最终保存文件的编码,可以自给改
191         f.write(‘n‘)
192     f.close()    

原文地址:https://www.cnblogs.com/crawer-1/p/8277279.html

时间: 2024-11-05 17:24:34

搜狗词库转txt的相关文章

将搜狗词库.scel格式转化为.txt格式

由于项目中要用到词库,而下载的搜狗词库是.scel格式,所以就用python脚本将搜狗词库.scel格式文件转化为.txt格式文件. 1 #!/bin/python 2 # -*- coding: utf-8 -*- 3 4 5 import struct 6 import sys 7 import binascii 8 import pdb 9 10 try: 11 reload(sys) 12 sys.setdefaultencoding('utf-8') 13 except: 14 pas

解析搜狗词库(python)

#!/usr/bin/python # -*- coding: utf-8 -*- import struct import sys import binascii import pdb #搜狗的scel词库就是保存的文本的unicode编码,每两个字节一个字符(中文汉字或者英文字母) #找出其每部分的偏移位置即可 #主要两部分 #1.全局拼音表,貌似是所有的拼音组合,字典序 # 格式为(index,len,pinyin)的列表 # index: 两个字节的整数 代表这个拼音的索引 # len:

ibus pinyin 搜狗词库

目前主流的 linux 发行版例如 fedora 和 ubuntu 默认的中文输入法都是 ibus-pinyin,但是非尝苦恼 ibus-pinyin 的词库太少,输入中文词组得一个一个的选汉字,很羡慕 windows 下用搜狗拼音的同学,于是网上有好事者提出了解决办法. 用法:先到搜狗拼音官方网站下载你认为比较常用的词库文件,注意这些词库文件通常是以 .scel 为后缀名,然后把下面的代码复制后保存为 python 脚本,保存到词库文件所在的文件夹中,运行脚本,得到 sougou.txt: 打

中州韵输入法导入搜狗词库

rime是一个非常优秀的输入法,linux平台下的反应速度远超搜狗,也没有隐私风险.2012年开始接触它,到后来抛弃了它,因为rime自带的词库真的太弱了,也懒得折腾.最近发现一个词库转换软件叫imewlconverter,于是发现rime导入其他输入法(比如搜狗)的词库其实还挺方便的. 要导入词库需要两个文件: 1. luna_pinyin_simp.custom.yaml 是配置文件 rime在部署的时候会自动加载.因为我用的是明月简体schema,所以是这个名字.如果你用的是明月schem

深蓝词库转换2.4版发布,支持最新的搜狗用户词库备份bin格式

很高兴的告诉大家,感谢GitHub上的h4x3rotab提供python版的搜狗用户词库备份bin格式的解析算法,感谢tmxkn1提供了C#版的实现,深蓝词库转换终于迎来了一个重大更新,能够支持搜狗用户词库的bin格式备份的导出了.再也不用受到搜狗输入法的钳制,可以自由切换到其他输入法了.搜狗bin词库只解析到了用户词条和词频,没有拼音,所以如果要导出其他拼音输入法,中间转换工具会根据词条的内容重新生成拼音. 另外在2.4版中,增加了用户词频强制设置的功能,比如将搜狗用户词库bin格式备份转换为

coreseek/sphinx自定义词库

1.在一些专业领域中,全文搜索需要定义专业的名词,这里以化学为例来说明自定义词库 国内只有搜狗提供公开词库 网址是:http://pinyin.sogou.com/dict/ 有些可以直接下载TXT的,有些则需要自己处理成txt文件,如果能下载txt的则只需要更改一下就可以,如果不能下载,则用其他软件或者自己手写一个,我用的是深蓝提供的词库转换工具 假设以上步骤已经完成,txt文件已经生成,则只需要下面的步骤就可以生成词库 mmseg词库的格式是 中文词 \t 1 x:1 由于生成的txt文件的

mmseg自定义分词词库

下面给大家介绍一下如何打造自己的coreseek分词词库. coreseek自身带的词库不是很大,直接使用它分词可能会返回大量没用结果.要想搜索结果准确打造一个专门的分词 词库必不可少. i. 首先到搜狗http://pinyin#sogou#com/dict/下载你要的词库 ii. 因为下载回来的词库不是文本文件我们不能直接使用,所以要先转换成文本文件.网上找一个搜狗转 google的小工具,用它把你下载的全部词库转成文本文件.合并为一个文件命名为words.txt.文件要用utf8编码 保存

打造自己的coreseek分词词库

下面给大家介绍一下如何打造自己的coreseek分词词库. coreseek自身带的词库不是很大,直接使用它分词可能会返回大量没用结果.要想搜索结果准确打造一个专门的分词 词库必不可少. i. 首先到搜狗http://pinyin#sogou#com/dict/下载你要的词库 ii. 因为下载回来的词库不是文本文件我们不能直接使用,所以要先转换成文本文件.网上找一个搜狗转 google的小工具,用它把你下载的全部词库转成文本文件.合并为一个文件命名为words.txt.文件要用utf8编码 保存

和我一起开发Android应用(四)——拓词算法分析和“悦词”词库解析

今天我们要部分实现背单词功能,在开始正题之前,还是附上背单词软件的下载链接:http://apk.91.com/Soft/Android/com.carlos.yueci-4.html 最近实验室有了任务,时间会紧些,因此这个项目要加快进度了. 首先把我在系列二中的功能分析拷贝过来: 功能2.背单词. 实现方法:这里要用到第二个数据库,背单词的词库.我们需要一个存放单词的TXT文件,通过解析这个TXT文件,将要背的单词解析并存进数据库中,然后根据一定的规        律弹出单词. 所用到的技术