在ubuntu18.04.2上搭建elasticsearch6.6.0集群

操作系统:

es的安装:https://www.elastic.co/guide/en/elasticsearch/reference/current/deb.html
要紧的就这2步:
   wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.6.0.deb
     sudo dpkg -i elasticsearch-6.6.0.deb
     sudo /bin/systemctl daemon-reload
     sudo /bin/systemctl enable elasticsearch.service
     sudo /bin/systemctl start elasticsearch.service
     如果启动失败说找不到JAVA_HOME环境变量,但是在命令行里敲java又有,则
     在 /etc/default/elasticsearch里添加如下行
         `JAVA_HOME=/usr/local/jre1.8.0_191`

2个节点:
节点1的IP: 192.168.11.145
节点2的IP: 192.168.11.148

更改2个节点的配置文件  /etc/elasticsearch/elasticsearch.yml
参照这个链接配置 https://dzone.com/articles/elasticsearch-tutorial-creating-an-elasticsearch-c

我的2个配置


配置完成后在2个节点上分别重启: systemctl restart elasticsearch.service
安装kibana,kibana安装在192.168.11.145节点上,注意kibana的版本要与es的版本匹配
注意/etc/kibana/kibana.yml里的elasticsearch.hosts要与es的node.master: true的
network.host:network.port相匹配

打开 192.168.11.145:5601查看
在DevTool里输入GET /_cluster/state?pretty查看,可以看到有2个节点了

在Monitoring也可以看到2个节点

创建一个index看看
PUT /index-sgd
{
"settings" : {
"index" : {
"number_of_shards" : 2,
"number_of_replicas" : 1
}
}
}

发现健康为yellow

查看index-sgd的stats,我是2个主分片,2个副本共4个分片,显示有2个分片successful

Monitoring的这里也可以看到index-sgd有2个分片Unassigned

应该是因为192.168.11.148这个node的node.data设置为了false的原因,把这个节点的node.data设置为true
重启节点再通过kibana查看,健康状态就为green了

PUT /index-sgd
{
"settings" : {
"index" : {
"number_of_shards" : 2,
"number_of_replicas" : 2
}
}
}

如果把number_of_shards和number_of_replicas改成2,2,健康状态怎么都是yellow了
{
"_shards": {
"total": 6,
"successful": 4,
"failed": 0
},
改成3,1 健康状态为green
{
"_shards": {
"total": 6,
"successful": 6,
"failed": 0
},
改成3,2 健康状态为yellow
{
"_shards": {
"total": 9,
"successful": 6,
"failed": 0
},

改成3,3, 健康状态为yellow
{

"_shards": {
"total": 12,
"successful": 6,
"failed": 0
},
改成4,1,green
{
"_shards": {
"total": 8,
"successful": 8,
"failed": 0
},
改成4,2,yellow
{
"_shards": {
"total": 12,
"successful": 8,
"failed": 0
},
改成100,1,green
{
"_shards": {
"total": 200,
"successful": 200,
"failed": 0
},

改成1,2,yellow
{

"_shards": {
"total": 3,
"successful": 2,
"failed": 0
},

健康状态取决于node和number_of_replicas
满足这个number_of_replicas<=node才能green

原文地址:https://blog.51cto.com/3732370/2362063

时间: 2024-08-02 02:51:25

在ubuntu18.04.2上搭建elasticsearch6.6.0集群的相关文章

使用kubeadm在CentOS上搭建Kubernetes1.14.3集群

练习环境说明:参考1 参考2 主机名称 IP地址 部署软件 备注 M-kube12 192.168.10.12 master+etcd+docker+keepalived+haproxy master M-kube13 192.168.10.13 master+etcd+docker+keepalived+haproxy master M-kube14 192.168.10.14 master+etcd+docker+keepalived+haproxy master N-kube15 192.

Linux上搭建Hadoop2.6.3集群以及WIN7通过Eclipse开发MapReduce的demo

近期为了分析国内航空旅游业常见安全漏洞,想到了用大数据来分析,其实数据也不大,只是生产项目没有使用Hadoop,因此这里实际使用一次. 先看一下通过hadoop分析后的结果吧,最终通过hadoop分析国内典型航空旅游业厂商的常见安全漏洞个数的比例效果如下: 第一次正式使用Hadoop,肯定会遇到非常多的问题,参考了很多网络上的文章,我把自己从0搭建到使用的过程记录下来,方便以后自己或其他人参考. 之前简单用过storm,适合实时数据的处理.hadoop更偏向静态数据的处理,网上很多hadoop的

一个Hadoop集群上搭建多个Hbase集群

即不同的集群在hdfs上建立不同的根目录和Zooeekper的根目录.如图所示:原来的hbase-0.94.14版本中在hdfs上目录是hbase, zookeeper的根目录是zookeeper_data.hbase-0.96.8版本中在hdfs上目录是index,zookeeper的根目录是zookeeper_data_inidex.

CentOS7上Hadoop 2.6.0集群的安装与配置

转载请注明出处:http://blog.csdn.net/l1028386804/article/details/45740791 1.CentOS7安装 (1)最小化安装CentOS7 (2)配置网络连接 vi/etc/sysconfig/network-scripts/ifcfg-eth0 修改:BOOTPROTO=static ONBOOT=yes 添加:IPADDR= ipaddress(ip地址) NETMASK=subnetmask(子网掩码) GATEWAY=gateway(网关)

搭建hadood2.8.0集群开发环境

目标: 搭建hadoop+hbase+zoopkeer+hive 开发环境 安装环境: 1.centeros 192.168.1.101 2. centeros 192.168.1.102 开发环境: window +eclipse 一.安装hadoop集群 1.配置hosts #vi /etc/hosts 192.168.1.101 master 192.168.1.101 slave1 2.关闭防火墙: systemctl status firewalld.service #检查防火墙状态

在Ubuntu18.04.2LTS上安装电子书软件

在Ubuntu18.04.2LTS上安装电子书软件 一.前言      很多时候我们想在Ubuntu上阅读电子书,但是Ubuntu上的软件对于这种阅读的界面支持并不好,因此我们需要自己加入喜欢的阅读器. 二.Ubuntu18.04.2LTS上的电子书软件 2.1.Calibre       这个软件比较大,但是安装之后还是比较有用的. Calibre 是 Linux 用户中最受欢迎的电子书应用之一,其实它不仅是一个简单的电子书阅读器,而是完整的电子书解决方案,你甚至可以使用 Calibre 来自

Ubuntu14.04下Hadoop2.2.0集群搭建

系统版本: master: Ubuntu 14.04  salve1: Ubuntu 14.04 hadoop: hadoop 2.2.0 1.系统配置以及安装SSH无密码登陆环境(master&slaves): 修改本机(master)和子节点(slaveN)机器名:打开/etc/hostname文件 sudo gedit /etc/hostname (修改后需重启才能生效) 修改host文件(映射各个节点IP): sudo gedit /etc/hosts 在后面添加内容为: 172.22.

Ubuntu 12.04下spark1.0.0 集群搭建(原创)

spark1.0.0新版本的于2014-05-30正式发布啦,新的spark版本带来了很多新的特性,提供了更好的API支持,spark1.0.0增加了Spark SQL组件,增强了标准库(ML.streaming.GraphX)以及对JAVA和Python语言的支持: 下面,我们首先进行spark1.0.0集群的安装,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机,增加更多的slave只需重复slave部分的内容即可.: 系统版本

Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机,增加更多的slave只需重复slave部分的内容即可. 系统版本: master:Ubuntu 12.04 slave:Ubuntu 12.04 hadoop:hadoop 2.2.0 安装ssh服务:sudo apt-get install ssh 有时也要更新一下vim:sudo apt-ge