Kibana + ElasticSearch

上面一张介绍了ElasticSearch的安装和简单用法。

现在应该都知道ElasticSearch是用来做全文搜索的,那今天我就简单介绍下Kibana。

它是专门用来查看ElasticSearch内容的工具,并且可以图形化

Docker安装Kibana

命令:

docker pull index.tenxcloud.com/docker_library/kibana

注意:这里下载的镜像是最新版本的Kibana,而我们上章下载的ElasticSearch是1.6版本的,可能比较低,需要升级下。

将Kibana挂载到本地的ElasticSearch镜像上,首先确保ElasticSearch已经开启。然后再执行如下命令:

docker run  --link elasticsearch:elasticsearch -p 5601:5601 -d kibana

注意:mac还要再开个端口映射。

这时候我们在浏览器中打开 http://127.0.0.1:5601,就可以看到Kibana的服务器页面了。如图:

查看日志

在上面的图片中,我们可以:

  1. 指定一个可以匹配一个或者多个 Elasticsearch 索引的 index pattern 。默认情况下,Kibana 认为你要访问的是通过 Logstash 导入 Elasticsearch 的数据。这时候你可以用默认的 logstash-* 作为你的 index pattern。通配符(*) 匹配索引名中零到多个字符。如果你的 Elasticsearch 索引有其他命名约定,输入合适的 pattern。pattern 也开始是最简单的单个索引的名字。
  2. 选择一个包含了时间戳的索引字段,可以用来做基于时间的处理。Kibana 会读取索引的映射,然后列出所有包含了时间戳的字段(译者注:实际是字段类型为 date 的字段,而不是“看起来像时间戳”的字段)。如果你的索引没有基于时间的数据,关闭 Index contains time-based events 参数。
  3. 如果一个新索引是定期生成,而且索引名中带有时间戳,选择 Use event times to create index names 选项,然后再选择 Index pattern interval。这可以提高搜索性能,Kibana 会至搜索你指定的时间范围内的索引。在你用 Logstash 输出数据给 Elasticsearch 的情况下尤其有效。
  4. 点击 Create 添加 index pattern。第一个被添加的 pattern 会自动被设置为默认值。如果你有多个 index pattern 的时候,你可以在 Settings > Indices 里设置具体哪个是默认值。

下面就是筛选条件,查询内容了

当然,我们还能观看一些报表,图形化界面,这里就不概述了。

详细介绍请参照http://kibana.logstash.es/content/kibana/v4/setup.html

时间: 2024-12-14 06:38:43

Kibana + ElasticSearch的相关文章

安装logstash+kibana+elasticsearch+redis搭建集中式日志分析平台

本文是参考logstash官方文档实践的笔记,搭建环境和所需组件如下: Redhat 5.7 64bit / CentOS 5.x JDK 1.6.0_45 logstash 1.3.2 (内带kibana) elasticsearch 0.90.10 redis 2.8.4 搭建的集中式日志分析平台流程如下: elasticsearch 1.下载elasticsearch. wget https://download.elasticsearch.org/elasticsearch/elasti

Logstash+kibana+ ElasticSearch+redis

这是之前Logstash+kibana+ ElasticSearch+redis 安装时,自己整理的初学者容易看懂的资料,按照以下的步骤也已经完成了安装. 这里有二台服务器: 192.168.148.201 logstash index,redis,ElasticSearch,kibana,JDK 192.168.148.129 logstash agent,JDK 1 系统各部分应用介绍 Logstash:一个完全开源对日志进行收集.分析和存储的工具.他可以做系统的log收集,转载的工具.同时

log4net.redis+logstash+kibana+elasticsearch+redis 实现日志系统

前端时间写了个随笔 log4net.NoSql +ElasticSearch 实现日志记录 ,因项目原因需要把日志根java平台的同事集成采用logstash+kibana+elasticsearch+redis结构实现日志统计分析,所以需要一个将log4net日志输出到redis的组件.没有找到现成的,就自己动手了.参考了 log4net.NoSql 的代码. redis的C#客户端使用了 ServiceStackRedis,json序列化使用 RestSharp.代码结构如下: JsonLa

logstash kibana elasticsearch环境部署

ElasticSearch 下载地址: https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.4.1.tar.gz 依赖环境: java 参考地址:https://www.elastic.co/downloads/elasticsearch 解压软件包 tar -xvf elasticsearch-5.4.1.tar.gz 进入解压目录 cd elasticsearch-5.4.1 编辑配置文件 config/e

使用kibana和elasticsearch日志实时绘制图表

前言: 此文接的是上篇,上次的内容是,用python操作elasticsearch存储,实现数据的插入和查询.  估计有些人一看我的标题,以为肯定是 logstash kibana elasticsearch的组合.这三个家伙也确实总是勾搭在一块. 其实logstash是可以被别的替换,比如常见的fluented .剩下的那两个,kibana和elasticsearch是一伙的,不好做分离. 这次用的不是那种开源的.cs模式日志收集应用,还真不是.而是自己直接从程序里面把日志打到elastics

Elasticsearch / Kibana Queries - 深度教程

Elasticsearch/Kibana Queries - In Depth Tutorial 本教程是关于如何在Kibana顶部的搜索栏中编写查询或在Elasticsearch中使用查询字符串查询的深入讲解.所使用的查询语言是Lucene查询语言,因为Lucene在Elasticsearch内部用于索引数据. 有很多教程已经解释了Lucene查询语言,那么为什么要写另一个?这些教程大部分仅涵盖了Lucene查询语言,但不考虑Elasticsearch .了解您的数据在Elasticsearc

部署 elk 日志系统 elasticsearch、logstash、 kibana

安装elk         安装Java 1.8环境         解压源码安装包:         tar xf jdk-8u121-linux-x64.tar.gz          ll         mkdir /work/opt -p         mv  jdk1.8.0_121  /work/opt/jdk         ll /work/opt/jdk/         chown -R root.root  /work/opt                   vim

Elasticsearch,Filebeat,Kibana部署,添加图表及elastalert报警

服务端安装 Elasticsearch和Kibana(需要安装openjdk1.8以上) 安装方法:https://www.elastic.co以Ubuntu为例: wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add - sudo apt-get install apt-transport-https echo "deb https://artifacts.elastic.co/pack

干货 | Elasticsearch、Kibana数据导出实战

1.问题引出 以下两个导出问题来自Elastic中文社区. 问题1.kibana怎么导出查询数据? 问题2:elasticsearch数据导出 就像数据库数据导出一样,elasticsearch可以么? 或者找到它磁盘上存放数据的位置,拷贝出来,放到另一个es服务器上或者转成自己要的数据格式? 实际业务实战中,大家或多或少的都会遇到导入.导出问题. 根据数据源的不同,基本可以借助: 1.程序写入 2.数据同步 logstash/flume/cana/es_hadoopl等来实现关系型数据库(如: