ELK日志系统+x-pack安全验证

根据之前已经搭好的ELK系统,现在加一个x-pack插件上去,不然谁拿到ip和端口都可以访问elasticsearch和kibana。

要的效果如下:打开kibana界面的时候要让其输入用户名密码才能进去:

第一步:elasticsearch配置x-pack

  由于我用的是elasticsearch-6.4.2的版本,整个ELK用的都是6.4.2的版本,在elasticesearch-6.4.2/bin目录下已经自带了x-pack插件,不用安装。我在网上看其他资料的时候,好像6.3以前版本的elasticsearch都要手动安装x-pack。

  话不多说,跟上节奏:

  elasticsearch-6.4.2开启安全验证配置,如下:

  第一步:

#打开elasticsearch.yml配置文件:vi elasticsearch-6.4.2/config/elasticsearch.yml#加上这条:设置x-pack为开启xpack.security.enabled: true

  配置图如下:

  第二步:

    1、运行elasticsearch

    2、启用trial license(30天试用) 

curl -H "Content-Type:application/json" -XPOST http://192.168.36.61:9200/_xpack/license/start_trial?acknowledge=true

  第三步:设置密码

#在elasticsearch-6.4.2/bin/目录下运行elasticsearch-setup-passwords设置密码(账号默认为elastic):./elasticsearch-setup-passwords interactive

  设置完密码结果图:它会不止是设置elasticsearch,其他的kibana、logstash也会一起设置了,密码最好全设置同一个

#出现设置密码的结果图如下:

修改密码方式:

curl -H "Content-Type:application/json" -XPOST -u elastic ‘http://192.168.36.61:9200/_xpack/security/user/elastic/_password‘ -d ‘{ "password" : "123456" }‘



Kibana的配置x-pack:

#打开kibana的kibana.yml配置文件:vi kibana-6.4.2-linux-x86_64/config/kibana.yml

#配置如下图:



logstash配置x-pack:

#打开自定义的logstash的配置文件logstash.conf,在output里面表示输出数据到elasticsearch时加上用户名和密码,如下图:vi logstash-6.4.2/config/logstash.conf

   


最后结果:

  elasticsearch启动,logstash启动、kibana启动。然后在浏览器打开kibana,出现用户登录界面,如下图:

  

加一个小笔记:设置ELK系统开机自启

  

#借鉴此博客:https://blog.csdn.net/whg18526080015/article/details/73737546

设置好之后快捷手动开启命令:service elasticsearch start

service logstash start

service kibana start

原文地址:https://www.cnblogs.com/spll/p/9829094.html

时间: 2024-11-04 09:27:52

ELK日志系统+x-pack安全验证的相关文章

ELK日志系统:Elasticsearch+Logstash+Kibana搭建教程

ELK日志系统:Elasticsearch + Logstash + Kibana 搭建教程 安装配置JDK环境 JDK安装(不能安装JRE) JDK下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 下载包:jdk-8u131-linux-x64.rpm yum localinstall jdk-8u131-linux-x64.rpm mvn 安装 cd /usr/lo

ELK日志系统之kibana的使用操作

1.ELK日志系统打开后,打开kibana的操作界面,第一步创建索引模式: 2222222222222222222222222222222222222222222222 333333333333333333333333333333333创建成功 444444444444444444444444444444 放牛去 原文地址:https://www.cnblogs.com/spll/p/10955215.html

ELK日志系统:Filebeat使用及Kibana如何设置登录认证

原文:ELK日志系统:Filebeat使用及Kibana如何设置登录认证 根据elastic上的说法: Filebeat is a lightweight, open source shipper for log file data. As the next-generation Logstash Forwarder, Filebeat tails logs and quickly sends this information to Logstash for further parsing an

ELK日志系统

转自 https://zhuanlan.zhihu.com/p/26399963 ELK中的三个系统分别扮演不同的角色,组成了一个整体的解决方案. Logstash是一个ETL工具,负责从每台机器抓取日志数据,对数据进行格式转换和处理后,输出到Elasticsearch中存储. Elasticsearch是一个分布式搜索引擎和分析引擎,用于数据存储,可提供实时的数据查询. Kibana是一个数据可视化服务,根据用户的操作从Elasticsearch中查询数据,形成相应的分析结果,以图表的形式展现

centos7 部署 ELK 日志系统

=============================================== 2017/12/17_第1次修改                       ccb_warlock =============================================== ELK(elasticsearch.logstash.kibana)可以作为日志收集及分析的一整套系统,通过阿里的普及也有越来越多的公司在使用,使用下来功能还可以,这里整理记录一个部署手册. 为了方便,将E

部署 elk 日志系统 elasticsearch、logstash、 kibana

安装elk         安装Java 1.8环境         解压源码安装包:         tar xf jdk-8u121-linux-x64.tar.gz          ll         mkdir /work/opt -p         mv  jdk1.8.0_121  /work/opt/jdk         ll /work/opt/jdk/         chown -R root.root  /work/opt                   vim

ELK 日志系统搭建配置

logstash是一个数据分析软件,主要目的是分析log日志.整一套软件可以当作一个MVC模型,logstash是controller层,Elasticsearch是一个model层,kibana是view层. 首先将数据传给logstash,它将数据进行过滤和格式化(转成JSON格式),然后传给Elasticsearch进行存储.建搜索的索引,kibana提供前端的页面再进行搜索和图表可视化,它是调用Elasticsearch的接口返回的数据进行可视化.logstash和Elasticsear

ELK日志系统的搭建

http://www.cnblogs.com/ibook360/archive/2013/03/15/2961428.html

ELK日志分析系统的应用

收集和分析日志是应用开发中至关重要的一环,互联网大规模.分布式的特性决定了日志的源头越来越分散, 产生的速度越来越快,传统的手段和工具显得日益力不从心.在规模化场景下,grep.awk 无法快速发挥作用,我们需要一种高效.灵活的日志分析方式,可以给故障处理,问题定位提供更好的支持.基于全文搜索引擎 Lucene 构建的 ELKstack 平台,是目前比较流行的日志收集方解决方案. ELK系统的部署按照官方文档操作即可,相关资料也很多,这篇文章更多的关注三个组件的设计和实现,帮助大家了解这个流行的