Logstash5.4.1解析日志报错处理

下载最新的logstash5.4.1打开把之前的配置文件加入进去,启动logstash提示报错了,未使用geoip插件的配置文件正常启动。按照提示发现是maxmind的数据库解析出错,重新至maxmind(http://geolite.maxmind.com/download/geoip/database/GeoLite2-City.tar.gz)下载解析即可。说明下之前的配置文件为

geoip {

source => ["X_Forward_IP"]

database => "/logstash2.2.2/conf/GeoLiteCity.dat"

更改为

geoip {

source => ["X_Forward_IP"]

database => "/usr/local/logstash-5.4.1/config/GeoLite2-City.mmdb"

ps:刚开始我以为是新版本的logstash不兼容老版本的grok,原来只是IP数据库的问题

时间: 2024-10-06 20:30:59

Logstash5.4.1解析日志报错处理的相关文章

数据库日志报错问题分析

Thread 1 cannot allocate new log, sequence 466 Private strand flush not complete Current log# 7 seq# 465 mem# 0: /home/app/oracle/oradata/orcl/redo07.log Thread 1 advanced to log sequence 466 (LGWR switch) Current log# 8 seq# 466 mem# 0: /home/app/or

记一次rsync日志报错directory has vanished

中午两点的时候邮件告知rsync同部svn源库失败,看rsync日志报错显示如上,当时还在上课,没在公司,怀疑是不是有人动了svn的版本库,后来询问同事并通过vpn登录服务器上查看版本库是正常的,也没有同事反应svn有问题,后来看邮件通知都是正常的,后来查资料说是在同步的过程中,正好有人执行了删除文件的操作,要不要这么巧,不知道是不是这个原因,有知道的小伙伴请联系我:528634141,资料显示如下: Can you ensure, that there is no traffic on the

message日志报错:TCP: time wait bucket table overflow,K哥

2015.9.13 message日志报错:TCP: time wait bucket table overflow 网上很多解决办法,我也是百度的,哈哈 先盗一张图,因为问题已经很久了,没截图 K哥盗图. 这个报错需要更改net.ipv4.tcp_max_tw_buckets这个内核参数. 这个参数是系统同时保持timewait套接字的最大数量. 如果超过这个数字,time-wait套接字将立刻被清除并打印警告信息. 这个限制仅仅是为了防止简单的 DoS攻击. 解决方法: 增大 tcp_max

nginx error日志报错

经过与开发的不断协作,终于差不多把error日志的报错信息消灭的差不多了,但还是偶尔出现"*1939 an upstream response is buffered to a temporary file /var/cache/nginx/proxy_temp/2/00/0000000002 while reading upstream, client: 116.231.88.XX, server: _, request: "GET /time HTTP/1.1", ups

linux 日志报错:error (unexpected RCODE REFUSED) resolving '

今天在机子上查看日志,偶然间发现了一堆错误.因为之前配置过DNS 和 squid,报错,之后查错,某度了一下,没找到答案. 下面是一点错误信息: Aug  8 11:40:30 host named[1668]: error (unexpected RCODE REFUSED) resolving '208.22.200.65.in-addr.arpa/PTR/IN': 74.115.231.45#53Aug  8 11:40:30 host named[1668]: error (unexpe

11gR2数据库日志报错:Fatal NI connect error 12170、

11gR2数据库日志报错:Fatal NI connect error 12170.TNS-12535.TNS-00505 [问题点数:100分,结帖人MarkIII] 不显示删除回复             显示所有回复             显示星级回复             显示得分回复             只显示楼主           收藏 关注 MarkIII MarkIII 等级: 结帖率:98.94% 楼主发表于: 2011-05-13 10:33:10 Fatal NI

ssh无法登陆,secure日志报错not allowed because none of user's groups

背景:一台阿里云ECS跑了云市场的一个安全加固脚本,限制了root登录和密码登录,由于客户需求,需要将root放开 对应操作: vim /etc/ssh/sshd_config PermitRootLogin yes PasswordAuthentication yes 改完后,便立马重启ssh服务(/etc/init.d/sshd  restart)登录测试 居然还是登录不了,还以为密码错误呢,就是用控制台VNC登录,证明密码没有问题. 特烦恼,查边了百度的关于限制root用户登录的帖子,都是

Kafka日志报错:[error] k.m.j.KafkaJMX$ - Failed to connect to service:jmx:rmi:///jndi/rmi://10.1.3.116:-1/jmxrmi java.lang.IllegalArgumentException: requirement failed: No jmx port but jmx polling enabled!

一.Kafka日志报错:[error] k.m.j.KafkaJMX$ - Failed to connect to service:jmx:rmi:///jndi/rmi://10.1.3.116:-1/jmxrmi java.lang.IllegalArgumentException: requirement failed: No jmx port but jmx polling enabled! 以上报错,并没有对Kafka对使用造成直接影响: 1>.启动生产者:kafka-console

gazebo仿真踩坑--rviz中设定机器人的目标位置,move_base后台日志报错

启动仿真环境及各种节点(amcl,move_base,map_server)后,在rviz中设定机器人的目标位置,后台日志报错 [ INFO] [1571974242.864525935, 40.511000000]: Got new plan[ERROR] [1571974242.964186066, 40.612000000]: Extrapolation Error: Lookup would require extrapolation into the future.  Requeste