在单台服务器上搭建elasticsearch集群

很遗憾,这样的集群基本上没啥用处,没有容错能力。因此本文仅可作为学习ES集群部署的参考文档。

系统配置:

修改/etc/hosts增加
127.0.0.1 node01
127.0.0.1 node02
127.0.0.1 node03
修改/etc/sysctl.conf增加配置,然后执行sysctl -p立即生效
vm.max_map_count=655360

用到的软件包:

elasticsearch-6.8.6.tar.gz
kibana-6.8.6-linux-x86_64.tar.gz

创建安装目录

mkdir elasticsearch-cluster/

将es和kibana上传到安装目录后,解压

tar -xvf elasticsearch-6.8.6.tar.gz
tar -xvf kibana-6.8.6-linux-x86_64.tar.gz

为了操作方便,修改下软件目录名

mv elasticsearch-6.8.6/ node01/
mv kibana-6.8.6-linux-x86_64/ kibana/

修改es配置如下(config/elasticsearch.yml)

#-*- node01配置 -*-#
cluster.name: es-cluster
node.name: node01
node.master: true
node.data: true
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
discovery.zen.ping.unicast.hosts: ["node01:9300", "node02:9301", "node03:9302"]
discovery.zen.minimum_master_nodes: 2

复制两份node01当做另外的节点

cp -r node01/ node02/
cp -r node01/ node03/

然后修改对应的配置文件:

#-*- node02配置 -*-#
cluster.name: es-cluster
node.name: node02
node.master: true
node.data: true
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9201
transport.tcp.port: 9301
discovery.zen.ping.unicast.hosts: ["node01:9300", "node02:9301", "node03:9302"]
discovery.zen.minimum_master_nodes: 2
#-*- node03配置 -*-#
cluster.name: es-cluster
node.name: node03
node.master: true
node.data: true
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9202
transport.tcp.port: 9302
discovery.zen.ping.unicast.hosts: ["node01:9300", "node02:9301", "node03:9302"]
discovery.zen.minimum_master_nodes: 2

然后分别启动node01/02/03即可

bin/elasticsearch -d

启动后,访问http:/es-server:9200/_cluster/health?pretty,不出意外的话应该是如下图所示

看到返回这个,就证明集群搭建成功了。

接下来安装可视化工具kibana,也很简单。首先修改配置文件

server.port: 5601
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://localhost:9200"]
kibana.index: ".kibana"
i18n.locale: "zh-CN"

然后启动kibana即可

nohup bin/kibana &

访问服务端口:http://kibana-server:5601见如下图就部署成功

es集群的部署到此结束,其他诸如es和kibana的使用就自己摸索熟悉吧。??

原文地址:https://www.cnblogs.com/lichmama/p/12364356.html

时间: 2024-10-11 10:37:43

在单台服务器上搭建elasticsearch集群的相关文章

【 Linux 】单台服务器上并发TCP连接数

单台服务器上并发TCP连接数    问题:一台服务器到底能够支持多少TCP并发连接呢? 1. 文件描述符限制:    对于服务器来说,每一个TCP连接都要占用一个文件描述符,一旦文件描述符使用完,新的连接到来返回给我们的错误是"Socket/File:Can't open so many files" 这时,你需要明白操作系统可以打开最大文件数的限制. 进程限制(用户限制):            执行 ulimit -n 输出1024,说明对于一个进程而言最多只能打开1024个文件,

在windows上搭建redis集群

一 所需软件 Redis.Ruby语言运行环境.Redis的Ruby驱动redis-xxxx.gem.创建Redis集群的工具redis-trib.rb 二 安装配置redis redis下载地址   https://github.com/MSOpenTech/redis/releases ;  下载Redis. 集群规划有三个节点的集群,每个节点有一主一备.需要6台虚拟机. 把 redis 解压后,再复制出 5 份,配置 三主三从集群. 由于 redis 默认端口号为 6379,那么其它5份的

docker上搭建consul集群全流程

1. 在docker上安装consul(默认安装最新版本) docker pull consul 2. 启动第一个consul服务:consul1 docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul:1.2.2 agent -server -bootstrap-expect 2 -ui -bind=0.0.0.0 -client=0.0.0.0 8

网络编程释疑之:单台服务器上的并发TCP连接数可以有多少

曾几何时我们还在寻求网络编程中C10K问题的解决方案,但是现在从硬件和操作系统支持来看单台服务器支持上万并发连接已经没有多少挑战性了.我们先假设单台服务器最多只能支持万级并发连接,其实对绝大多数应用来说已经远远足够了,但是对于一些拥有很大用户基数的互联网公司,往往面临的并发连接数是百万,千万,甚至腾讯的上亿(注:QQ默认用的UDP协议).虽然现在的集群,分布式技术可以为我们将并发负载分担在多台服务器上,那我们只需要扩展出数十台电脑就可以解决问题,但是我们更希望能更大的挖掘单台服务器的资源,先努力

centos7在单台服务器上安装FastDFS的方法

准备环境: #安装依赖包 yum -y install gcc gcc-c++ libtool pcre* zlib openssl openssl-devel mkdir /FastDFS/ #上传下载工具 yum -y install lrzsz yum -y install unzip cd /FastDFS/ 上传fastdfs-dep.zip rz #安装libfastcommon cd /FastDFS/ unzip fastdfs-dep.zip cd /FastDFS/fastd

搭建Elasticsearch集群常见问题

一.ES安装方法: Linux用户登录(bae),我们用的是5.3版本的包.从官网下载: curl -L -O https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.3.0.tar.gz 解压后,进入到bin目录下,使用 ./elasticsearch 命令启动,看到如下的提示,即为启动成功.端口号9200. 二.ES单节点部署遇到的问题 1.记住不要在root下启动,否则会报错:can not run elas

Centos7-单台物理机搭建ceph集群

学习ceph时,看到crush规则的时候,crush策略最小为osd,但是这个osd定义的是真实的osd还是指单块磁盘?为了验证一下,自己用测试机模拟了一下单台机器使用一块磁盘搭建ceph. 配置ceph源,这里使用的阿里云的源 # yum install --nogpgcheck -y epel-release # rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 # vim /etc/yum.repos.d/ceph.repo [Ceph] n

linux服务器 Haproxy搭建Web集群环境实例

操作系统:CentOS 6.5   Haproxy软件版本:haproxy-1.4.24  Nginx软件版本:nginx-1.6.2 Haproxy是目前比较流行的一种集群调度工具,之前提到Nginx的upstream模块也能实现集群的负载均衡,但是Nginx不能对节点进行健康检查,性能也没有Haproxy好 负载均衡常用的调度算法:RR(Round Robin)轮询调度.LC(Least Connections)最小连接数和SH(Source Hashing)基于来源的访问调度 案例拓扑图:

搭建Elasticsearch集群的配置

#集群的名称 cluster.name: es6 #节点名称,其余两个节点分别为node-2 和node-3 node.name: node-4 #指定该节点是否有资格被选举成为master节点,默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master node.master: true #允许该节点存储数据(默认开启) node.data: true #索引数据的存储路径 path.data: /data/elasticsearch/data #日志文