elasticsearch的安装、部署

https://blog.csdn.net/lubin2016/article/details/81606753

1. elasticsearch的安装

1.1 集群规划

上传elasticsearch的tar.gz包至规划的集群各节点的目录下(规划两个节点rc-fhcb-10-es001,rc-fhcb-10-es002),如:本项目安装在/opt/fhcb/目录下

注意:建议elasticsearch的安装包在集群中各节点目录一致

1.2 修改配置文件

修改安装包下config目录下的配置文件elasticsearch.yml(集群每个节点)

 1 # 集群的名称
 2 cluster.name: elasticsearch
 3 # 节点名称
 4 node.name: es-node-01
 5 # 配置文件的位置
 6 path.conf: /opt/fhcb/elasticsearch-1.6.0/config
 7 # 该节点存储的索引数据
 8 path.data: /opt/fhcb/elasticsearch-1.6.0/data
 9 # 临时工作目录
10 path.work: /opt/fhcb/elasticsearch-1.6.0/work
11 # 日志文件位置
12 path.logs: /opt/fhcb/elasticsearch-1.6.0/logs
13 # 插件安装目录
14 path.plugins: /opt/fhcb/elasticsearch-1.6.0/plugins
15 # 设置该节点绑定的ip地址
16 network.bind_host: rc-fhcb-10-es001
17 # 设置其它节点与该节点交互的ip地址
18 network.publish_host: rc-fhcb-10-es001 network.host: rc-fhcb-10-es001 # 设置tcp协议端口号
19 transport.tcp.port: 9300
20 # 设置http协议端口号
21 http.port: 9200
22 # 通过配置这个参数来防止集群脑裂现象 (集群总节点数量/2)+1 discovery.zen.minimum_master_nodes: 2
23 # 默认设置为3s,此参数值为集群发现其它节点ping连接的超时时间,为避免网络延时,导致报错,故设置稍大些
24 discovery.zen.ping.timeout: 40s
25 # 设置是否打开多播发现节点,默认为true discovery.zen.ping.multicast.enabled: false
26 # 在es1.x中默认使用的是组播(multicast)协议,默认会自动发现同一网段的es节点组建集群,
27 # 在es2.x中默认使用的是单播(unicast)协议,想要组建集群的话就需要在这指定要发现的节点信息了。
28 discovery.zen.ping.unicast.hosts: ["rc-fhcb-10-es001", "rc-fhcb-10-es002"]

其它,节点下配置修改与上面大致相同,只是以下几个参数值不同:

1 node.name: es-node-02
2 network.bind_host: rc-fhcb-10-es002
3 network.publish_host: rc-fhcb-10-es002
4 network.host: rc-fhcb-10-es002

1.3 启动elasticsearch集群

在bin目录下,后台启动elasticsearch(集群每个节点)

方式一

./elasticsearch -d -Xms8g -Xmx8g

注意:参数-Xms8g -Xmx8g为ES使用的堆内存,具体大小应根据机器的配置确定,建议不要超过物理内存的一半,也不要超过32G;

方式二

1 在修改/etc/profile文件,添加如下内容
2 export ES_HEAP_SIZE=8g
3
4 然后在ES安装目录的bin目录下启动
5 ./elasticsearch -d

1.4 插件安装(在线安装)

插件的安装不必每个节点都进行安装,进入到安装节点的elasticsearch安装目录的bin目录下

BigDesk Plugin : 对集群中es状态进行监控

./plugin -install lukas-vlcek/bigdesk

Elasticsearch Head Plugin插件

./plugin -install mobz/elasticsearch-head

Elasticsearch Sql 插件

./plugin install NLPchina/elasticsearch-sql -u https://github.com/NLPchina/elasticsearch-sql/releases/download/1.4.6/elasticsearch-sql-1.4.6.zip 

注意:sql插件重启后生效

Elasticsearch kopf插件

./plugin -install lmenezes/elasticsearch-kopf

注意:以上安装方式都是在线安装,安装节点必须能连接互联网

查看head页面索引http://10.13.11.21:9200/_plugin/head/

查看sql页面:http://10.13.11.21:9200/_plugin/sql/

关闭elasticsearch

前台运行,通过”CTRL+C“组合键来终止elasticsearch的运行

后台运行,通过“kill -9 进程号”停止运行

通过REST API接口关闭整个集群:

curl -XPOST http://主机ip:9200/_cluster/nodes/_shutdown

通过如下命令来关闭单个节点:

curl -XPOST http://主机ip:9200/_cluster/nodes/节点标志符(如:es-node-01)/_shutdown

1.5 插件安装(离线安装)

head插件

下载地址:https://github.com/mobz/elasticsearch-head

./plugin --install head --url file:///opt/softwares/elasticsearch-head-master.zip

sql插件

下载地址:https://github.com/NLPchina/elasticsearch-sql

./plugin --install sql --url file:///opt/softwares/elasticsearch-sql-1.4.6.zip

注意:sql插件重启后生效

bigdesk插件

下载地址:https://github.com/lukas-vlcek/bigdesk

./plugin --install bigdesk --url file:///opt/softwares/bigdesk-master.zip

kopf插件

下载地址:https://github.com/lmenezes/elasticsearch-kopf

./plugin --install kopf --url file:///opt/softwares/elasticsearch-kopf-master.zip

2. 数据导入导出工具elasticdump工具的安装

2.1 安装nodejs插件

方式一:在线安装

1 yum -y install epel-release
2 yum -y install nodejs
3 yum -y install npm

方式二:离线安装

下载地址:https://nodejs.org/dist/latest-v8.x

下载nodejs的安装包(xxx.tar.gz),解压到指定目录;

配置nodejs的环境变量

1 export NODE_HOME=/opt/fhcb/node-v8.11.3-linux-x64
2 export PATH=$NODE_HOME/bin:$PATH

验证

1 npm -v
2 node -v

2.2 安装elasticdump

方式一:(在线)

1 npm install elasticdump  # 局部安装,elasticdump安装在当前目录
2 #或
3 npm install elasticdump -g  # -g表示全局安装

注意: 此方式安装elasticdump需要联网
方式二:(离线)

1 # 前提条件:已经安装好node,npm
2 直接将已经安装好的node_modules安装包拷贝到需要安装的机器上即可

2.3 导出数据

进入elasticdump的安装目录node_modules,然后进入elasticdump/bin目录下操作;

./elasticdump --input http://10.13.11.21:9200/10news_f_hot_news_toplist --output /root/datas/10news_f_hot_news_toplist.json --type=data

注意:导出目录/root/datas必须存在,否则报错;

–type参数:analyzer,拷贝analyzer分词

–type参数:mapping,拷贝映射

–type参数:data,拷贝数据

导出特定内容的数据

 1 ./elasticdump --input http://192.168.102.108:9200/web_page_news_info_09 --output /root/datas/web_page_news_info_09.json --type=data
 2 --searchBody
 3 ‘
 4 {
 5     "from": 0,
 6     "size": 200,
 7     "query": {
 8         "filtered": {
 9             "filter": {
10                 "bool": {
11                     "must": {
12                         "query": {
13                             "match": {
14                                 "orgcode": {
15                                     "query": "FHCB00001",
16                                     "type": "phrase"
17                                 }
18                             }
19                         }
20                     }
21                 }
22             }
23         }
24     }
25 }
26 ‘
27 # 导出web_page_news_info_09.json表中,orgcode字段为FHCB00001的记录

2.4 导入数据

./elasticdump --input /opt/data/web_page_book_summary_09.json --output http://10.13.11.21:9200 --type=data

注意:可以使用elasticdump –help查看插件的一些常用命令

3. IK中文分词器

3.1 安装ik分词器(ES集群每个节点)

3.1.1 到github下载分词器源代码,地址为:https://github.com/medcl/elasticsearch-analysis-ik

注意:下载与elasticsearch匹配的分词器源码版本,1.6.x对应的源码版本为1.4.0

3.1.2 解压elasticsearch-analysis-ik-1.4.0.zip,然后编译源码
3.1.3 将解压目录文件中config/ik文件夹复制到ES安装目录config文件夹下
3.1.4 把\target\releases\elasticsearch-analysis-ik-1.4.1.zip 解压到 ES安装目录/plugins/analysis-ik/
3.1.5 将elasticsearch-analysis-ik-1.4.0.jar复制到ES安装目录/lib下
3.1.6 修改ES的配置文件config/elasticsearch.yml,增加ik的配置

 1 index:
 2     analysis:
 3         analyzer:
 4             ik:
 5                 alias:[ik_analyzer]
 6                 type:org.elasticsearch.index.analysis.IkAnalyzerProvider
 7             ik_max_word:
 8                 type:ik
 9                 use_smart:false
10             ik_smart:
11                 type:ik
12             use_smart:true
13 index.analysis.analyzer.default.type:ik

注意:全局范围内所有的索引都将受到影响,也可以只对某个索引设置分词器

3.1.7 重启elasticsearch

3.1.8 验证分词效果

 1 #使用分词器
 2 http://10.11.2.105:9200/web_page_book_summary_09/_analyze?analyzer=ik_smart&pretty=true&text=中国特社会主义
 3 { "tokens" : [ { "token" : "中国特色社会主义", "start_offset" : 0, "end_offset" : 8, "type" : "CN_WORD", "position" : 1 } ] }
 4
 5 #没有使用分词器
 6 http://10.13.11.21:9200/web_page_book_summary_09/_analyze?analyzer=standard&pretty=true&text=中国特社会主义
 7 {
 8     "tokens": [{
 9         "token": "中",
10         "start_offset": 0,
11         "end_offset": 1,
12         "type": "<IDEOGRAPHIC>",
13         "position": 1
14     }, {
15         "token": "国",
16         "start_offset": 1,
17         "end_offset": 2,
18         "type": "<IDEOGRAPHIC>",
19         "position": 2
20     }, {
21         "token": "特",
22         "start_offset": 2,
23         "end_offset": 3,
24         "type": "<IDEOGRAPHIC>",
25         "position": 3
26     }, {
27         "token": "色",
28         "start_offset": 3,
29         "end_offset": 4,
30         "type": "<IDEOGRAPHIC>",
31         "position": 4
32     }, {
33         "token": "社",
34         "start_offset": 4,
35         "end_offset": 5,
36         "type": "<IDEOGRAPHIC>",
37         "position": 5
38     }, {
39         "token": "会",
40         "start_offset": 5,
41         "end_offset": 6,
42         "type": "<IDEOGRAPHIC>",
43         "position": 6
44     }, {
45         "token": "主",
46         "start_offset": 6,
47         "end_offset": 7,
48         "type": "<IDEOGRAPHIC>",
49         "position": 7
50     }, {
51         "token": "义",
52         "start_offset": 7,
53         "end_offset": 8,
54         "type": "<IDEOGRAPHIC>",
55         "position": 8
56     }]
57 }

3.2 IK分词器

ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。

4. 问题集锦

问题1:由SSL引发的问题

nodejs的npm安装模块时候报错:npm ERR! Error: CERT_UNTRUSTED

解决方案:

npm config set strict-ssl false

问题2:npm安装elasticdump时报错

SyntaxError: Unexpected identifier

解决方案:升级一下nodejs版本

npm install -g n
n stable

原文地址:https://www.cnblogs.com/zhhy/p/10912028.html

时间: 2024-11-13 10:43:37

elasticsearch的安装、部署的相关文章

Kibana+Logstash+Elasticsearch+Redis安装部署

最近做日志分析,发现logstash较符合自己的需求, Logstash:做系统log收集,转载的工具.同时集成各类日志插件,对日志查询和分析的效率有很大的帮助.一般使用shipper作为log收集.indexer作为log转载. Logstash shipper收集log 并将log转发给redis 存储 Logstash indexer从redis中读取数据并转发给elasticsearch redis:是一个db,logstash shipper将log转发到redis数据库中存储.Log

elasticsearch的安装部署

环境部署 1.服务器准备:centos7.4系统,Jdk1.8 cat /etc/redhat-release.Es6.x 如果是自带的openjdk需要先卸载: rpm -qa|grep java rpm -e –nodeps * 2.ElasticSearch安装:我采用的版本为6.6.0 https://elasticsearch.cn/download/ (1)地址:https://artifacts.elastic.co/downloads/elasticsearch/elastics

Elasticsearch介绍及安装部署

本节内容: Elasticsearch介绍 Elasticsearch集群安装部署 Elasticsearch优化 安装插件:中文分词器ik 一.Elasticsearch介绍 Elasticsearch是一个分布式搜索服务,提供Restful API,底层基于Lucene,采用多shard的方式保证数据安全,并且提供自动resharding的功能,加之github等大型的站点也采用 Elasticsearch作为其搜索服务. 二.Elasticsearch集群安装部署 1. 环境信息 主机名

ElasticSearch集群安装部署

0 集群搭建 1.安装unzip yum install unzip2.所有集群节点创建新用户 useradd el3.所有集群节点给el用户设置密码passwd el方便记忆使用的rootroot4.所有集群节点创建安装目录和赋予使用权限-->并转换用户 mkdir -p /opt/es ll /opt/ chown el:el /opt/es ll /opt/ su el 5.上传安装部署包到master6.解压到刚刚创建的目录unzip elasticsearch-2.2.1.zip -d

elasticsearch 安装部署以及插件head安装,和使用教程

1.环境初始化 最小化安装 Centos 7.3 x86_64操作系统的虚拟机,vcpu 2,内存4G或更多,操作系统盘50G,主机名设置规则为linux-hostX.exmaple.com,其中host1和host2为elasticsearch服务器,为保证效果特额外添加一块单独的数据磁盘大小为50G并格式化挂载到/data. 1.1 主机名和磁盘挂载: 使用blkid /dev/sdb  查看UUID  使用UUID挂载更加直接,更准确. 1 2 3 4 5 [[email protecte

ELK部署logstash安装部署及应用(二)

Logstash 安装部署注意事项: Logstash基本概念: logstash收集日志基本流程: input-->codec-->filter-->codec-->output input:从哪里收集日志. filter:发出去前进行过滤 output:输出至Elasticsearch或Redis消息队列 codec:输出至前台,方便边实践边测试 数据量不大日志按照月来进行收集 如果通过logstash来采集日志,那么每个客户端都需要安装logstash 安装需要前置系统环境

ElasticSearch2.2 集群安装部署

一.ElasticSearch 集群安装部署 环境准备 ubuntu虚拟机2台 ip:192.168.1.104 192.168.1.106 jdk:最低要求1.7,本机jdk版本1.7_67 安装 a.安装jdk(这里不赘述) b.从官网下载ES版本 地址https://www.elastic.co/downloads/elasticsearch c.解压ES到本地 d.进入config目录下,用编辑器打开elasticsearch.yml文件 1.cluster.name: ppscore-

Kafka介绍及安装部署

本节内容: 消息中间件 消息中间件特点 消息中间件的传递模型 Kafka介绍 安装部署Kafka集群 安装Yahoo kafka manager kafka-manager添加kafka cluster 一.消息中间件 消息中间件是在消息的传输过程中保存消息的容器.消息中间件在将消息从消息生产者到消费者时充当中间人的作用.队列的主要目的是提供路由并保证消息的传送:如果发送消息时接收者不可用,消息对列会保留消息,直到可以成功地传递它为止,当然,消息队列保存消息也是有期限的. 二.消息中间件特点 1

Storm笔记整理(三):Storm集群安装部署与Topology作业提交

[TOC] Storm分布式集群安装部署 概述 Storm集群表面类似Hadoop集群.但在Hadoop上你运行的是"MapReduce jobs",在Storm上你运行的是"topologies"."Jobs"和"topologies"是大不同的,一个关键不同是一个MapReduce的Job最终会结束,而一个topology永远处理消息(或直到你kill它). Storm集群有两种节点:控制(master)节点和工作者(wo