我个人最喜欢使用IK分词,确实很方便,并且更新也快,这里做个简单介绍吧
分词插件IK
插件安装
1. 下载https://github.com/medcl/elasticsearch-analysis-ik
2. 解压进入目录执行"mvn clean package",生成target目录。
3. 解压后将config/ik目录复制到你的elasticsearch主目录的config目录下
4. 编辑config/elasticsearch.yml,在文件末尾添加下面内容(不能有tab键,只许空格)
index:
analysis:
analyzer:
ik:
alias: [ik_analyzer]
type: org.elasticsearch.index.analysis.IkAnalyzerProvider
ik_max_word:
type: ik
use_smart: false
ik_smart:
type: ik
use_smart: true
index.analysis.analyzer.default.type: ik
5. 在elasticsearch主目录plugins目录(没有就自己新建这个目录)下新建analysis-ik目录,复制解压打包生成的文件elasticsearch-analysis-ik-1.2.9.jar(位于target目录下)到新建的analysis-ik目录下。
6. 将target/releases下的所有jar包复制到elasticsearch主目录下的lib目录下。
测试
新建索引名为test的索引 "curl -XPUT http://172.37.37.61:9200/test"
给索引创建mapping
curl -XPOST http://localhost:9200/test/test/_mapping -d‘
{
"test": {
"properties": {
"content": {
"type" : "string",
"boost" :
1.0,
"term_vector" : "with_positions_offsets",
"analyzer" : "ik",
"include_in_all" : true
}
}
}
}‘
7.自己创建一个索引,用中文来测试下。当然词库自己去维护啊。