ELK收集nginx日志并用高德地图展示出IP

(一)测试的环境

agentd:192.168.180.22

ES:192.168.180.23

kibana:192.168.180.23

采用的拓扑:logstash -->ES-->kibana

(二)实施步骤:

(1)logstsh具体配置:

1,配置nginx日志格式,采用log_format格式:

log_format  main  ‘$remote_addr - $remote_user [$time_local] "$request" ‘
                      ‘$status $body_bytes_sent "$http_referer" ‘
                      ‘"$http_user_agent" "$http_x_forwarded_for"‘;

2,在logstash服务器下载IP地址归类查询库

[[email protected] config]# cd /usr/local/logstash/config/
[[email protected] config]#  wget http://geolite.maxmind.com/download/geoip/database/GeoLite2-City.mmdb.
gz

3,配置logstash客户端

[[email protected] config]# vim /usr/local/logstash/config/nginx-access.conf 
input {
        file {
                path => "/opt/access.log"
                type => "nginx"
                start_position => "beginning"
              }
            }
filter {
          grok {
                match => { "message" => "%{IPORHOST:remote_addr} - - \[%{HTTPDATE:time_local}\] \"%{WO
RD:method} %{URIPATHPARAM:request} HTTP/%{NUMBER:httpversion}\" %{INT:status} %{INT:body_bytes_sent} %
{QS:http_referer} %{QS:http_user_agent}"
                                }
                     }
 geoip {
     source => "remote_addr"
     target => "geoip"
     database => "/usr/local/logstash/config/GeoLite2-City.mmdb"
     add_field => ["[geoip][coordinates]","%{[geoip][longitude]}"]
     add_field => ["[geoip][coordinates]","%{[geoip][latitude]}"]
                }
   }
   
output {
                elasticsearch {
                        hosts => ["192.168.180.23:9200"]
                        manage_template => true                                     
                        index => "logstash-map-%{+YYYY-MM}"                         
                          }                                                                   
             }

备注:

  • geoip: IP查询插件
  • source: 需要通过geoip插件处理的field,一般为ip,这里因为通过控制台手动输入的是ip所以直接填message,生成环境中如果查询nginx访问用户,需先将客户端ip过滤出来,然后这里填remote_addr即可
  • target: 解析后的Geoip地址数据,应该存放在哪一个字段中,默认是geoip这个字段
  • database: 指定下载的数据库文件
  • add_field: 这里两行是添加经纬度,地图中地区显示是根据经纬度来识

。如果启动正常的话,可以在kibana看到geoip相关的字段,如下图:

3,启动logstash客户端并加载刚才的配置文件。

[[email protected] config]# /usr/local/logstash/bin/logstash -f nginx-access.conf  
Sending Logstash‘s logs to /usr/local/logstash/logs which is now configured via log4j2.properties
[2017-06-20T22:55:23,801][INFO ][logstash.outputs.elasticsearch] Elasticsearch pool URLs updated {:changes=>{:removed=>[], :added=>[http://192.168.180.23:9200/]}}
[2017-06-20T22:55:23,805][INFO ][logstash.outputs.elasticsearch] Running health check to see if an Elasticsearch connection is working {:healthcheck_url=>http://192.168.180.23:9200/, :path=>"/"}
[2017-06-20T22:55:23,901][WARN ][logstash.outputs.elasticsearch] Restored connection to ES instance {:url=>#<URI::HTTP:0x4e54594d URL:http://192.168.180.23:9200/>}
[2017-06-20T22:55:23,909][INFO ][logstash.outputs.elasticsearch] Using mapping template from {:path=>nil}
[2017-06-20T22:55:23,947][INFO ][logstash.outputs.elasticsearch] Attempting to install template {:manage_template=>{"template"=>"logstash-*", "version"=>50001, "settings"=>{"index.refresh_interval"=>"5s"}, "mappings"=>{"_default_"=>{"_all"=>{"enabled"=>true, "norms"=>false}, "dynamic_templates"=>[{"message_field"=>{"path_match"=>"message", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false}}}, {"string_fields"=>{"match"=>"*", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false, "fields"=>{"keyword"=>{"type"=>"keyword"}}}}}], "properties"=>{"@timestamp"=>{"type"=>"date", "include_in_all"=>false}, "@version"=>{"type"=>"keyword", "include_in_all"=>false}, "geoip"=>{"dynamic"=>true, "properties"=>{"ip"=>{"type"=>"ip"}, "location"=>{"type"=>"geo_point"}, "latitude"=>{"type"=>"half_float"}, "longitude"=>{"type"=>"half_float"}}}}}}}}
[2017-06-20T22:55:23,955][INFO ][logstash.outputs.elasticsearch] New Elasticsearch output {:class=>"LogStash::Outputs::ElasticSearch", :hosts=>[#<URI::Generic:0x1e098115 URL://192.168.180.23:9200>]}
[2017-06-20T22:55:24,065][INFO ][logstash.filters.geoip   ] Using geoip database {:path=>"/usr/local/logstash/config/GeoLite2-City.mmdb"}
[2017-06-20T22:55:24,094][INFO ][logstash.pipeline        ] Starting pipeline {"id"=>"main", "pipeline.workers"=>4, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>500}
[2017-06-20T22:55:24,275][INFO ][logstash.pipeline        ] Pipeline main started
[2017-06-20T22:55:24,369][INFO ][logstash.agent           ] Successfully started Logstash API endpoint {:port=>9600}

(2)Kibana配置.

1,编辑修改kibana的配置文件kibana.yml在最后添加如下:

# The default locale. This locale can be used in certain circumstances to substitute any missing
# translations.
#i18n.defaultLocale: "en"

tilemap.url: ‘http://webrd02.is.autonavi.com/appmaptile?lang=zh_cn&size=1&scale=1&style=7&x={x}&y={y}&
z={z}‘

2,重启kibana服务。

[[email protected] bin]# /usr/local/kibana/bin/kibana &
[1] 10631
[[email protected] bin]# ps -ef|grep kibana            
root     10631  7795 21 10:52 pts/0    00:00:02 /usr/local/kibana/bin/../node/bin/node --no-warnings /usr/local/kibana/bin/../src/cli
root     10643  7795  0 10:52 pts/0    00:00:00 grep --color=auto kibana
[[email protected] bin]#   log   [02:52:59.297] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [02:52:59.445] [info][status][plugin:[email protected]] Status changed from uninitialized to yellow - Waiting for Elasticsearch
  log   [02:52:59.482] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [02:52:59.512] [info][status][plugin:[email protected]] Status changed from yellow to green - Kibana index ready
  log   [02:52:59.513] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [02:53:00.075] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [02:53:00.080] [info][listening] Server running at http://192.168.180.23:5601
  log   [02:53:00.081] [info][status][ui settings] Status changed from uninitialized to green - Ready

3,创建nginx的访问索引lostash-map*。具体步骤如下:ip:5601--->Management--Index Patterns--->+--->在Index name or pattern中添加logstash-map*--->create。具体如下图:

4,创建Visualize。具体步骤如下:Visalize--->+--->Maps(Tile Maps)

已上就是简单的步骤。

时间: 2024-10-13 11:35:31

ELK收集nginx日志并用高德地图展示出IP的相关文章

elk收集nginx日志

一 :客户端logstash.conf配置文件 input { file { path => "/usr/local/nginx/logs/access.log" type => "nginxlog" start_position => "beginning" # sincedb_path => "/home/logstash/sincdb.nginxlog" } } filter{ if [type]

ELK 二进制安装并收集nginx日志

对于日志来说,最常见的需求就是收集.存储.查询.展示,开源社区正好有相对应的开源项目:logstash(收集).elasticsearch(存储+搜索).kibana(展示),我们将这三个组合起来的技术称之为ELKStack,所以说ELKStack指的是Elasticsearch(java).Logstash(jruby).Kibana技术栈的结合, ELK5.X搭建并收集Nginx日志 ELK ELK5.X搭建并收集Nginx日志一.基础环境配置及软件包下载 二.安装Elasticsearch

centos6.5下安装配置ELK及收集nginx日志

Elasticsearch 是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等. Logstash 是一个完全开源的工具,他可以对你的日志进行收集.分析,并将其存储供以后使用(如,搜索) kibana 也是一个开源和免费的工具,他Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总.分析和搜索重要数据日志. 环境:192.168.50.119

ELK使用filter收集nginx日志-07

修改nginx日志格式 log_format hanye '$proxy_add_x_forwarded_for $remote_user [$time_local] "$request" $http_host' '[$body_bytes_sent] $request_body "$http_referer" "$http_user_agent" [$ssl_protocol] [$ssl_cipher]' '[$request_time] [

ELK对nginx日志进行流量监控

ELK对nginx日志进行流量监控 一.前言 线上有一套ELK单机版,版本为5.2.1.现在想把nginx访问日志接入到elk里,进行各个域名使用流量带宽的统计分析.要把nginx日志传输到elk上,可以在存有nginx日志的服务器上使用logstash或者filebeat.但是因为logstash是jvm跑的,资源消耗比较大,启动一个logstash就需要消耗500M左右的内存(这就是为什么logstash启动特别慢的原因),而filebeat只需要10来M内存资源,所以最终决定使用fileb

高德地图-展示多个信息窗口

1.问题背景 高德地图,设置小图标,并点击图标显示信息 2.实现源码 <!doctype html> <html> <head> <meta charset="utf-8"> <meta http-equiv="X-UA-Compatible" content="IE=edge"> <meta name="viewport" content="init

ELK日志服务器的快速搭建并收集nginx日志

今天给大家带来的是开源实时日志分析 ELK , ELK 由 ElasticSearch . Logstash 和 Kiabana 三个开源工具组成.官方网站:https://www.elastic.co 其中的3个软件是: Elasticsearch 是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制, restful 风格接口,多数据源,自动搜索负载等. Logstash 是一个完全开源的工具,他可以对你的日志进行收集.分析,并将其存储供以后使用(如,搜索

elk系统搭建并收集nginx日志-主要步骤

一)简介 elk系统是一套目前较为流行的日志收集分析系统,主要由elasticserch,logstash,kibana三部分组成,其中elasticsearch负责数据的存储,logstash负责日志的收集过滤,kibana负责日志的可视化部分.整个工作流程为logstash收集日志,过滤后输出并保存到elasticsearch中,最后用户通过kibana从elasticsearch中读取数据并处理.本文中日志收集引入filebeat收集日志,logstash监听在5000端口并接受fileb

利用 ELK系统分析Nginx日志并对数据进行可视化展示

一.写在前面 结合之前写的一篇文章:Centos7 之安装Logstash ELK stack 日志管理系统,上篇文章主要讲了监控软件的作用以及部署方法.而这篇文章介绍的是单独监控nginx 日志分析再进行可视化图形展示,并在用户前端使用nginx 来代理kibana的请求响应,访问权限方面暂时使用HTTP 基本认证加密用户登录.(关于elk权限控制,我所了解的还有一种方式-Shield),等以后有时间了去搞下.下面开始正文吧... 注意:环境默认和上一篇大致一样,默认安装好了E.L.K.3个软