haproxy配置日志及自定义日志

日志级别:

    emerg 0 系统不可用
    alert 1 必须马上采取行动的事件
    crit 2 关键的事件
    err 3 错误事件
    warning 4 警告事件
    notice 5 普通但重要的事件
    info 6 有用的信息
    debug 7 调试信息

配置记录日志:

在默认情况haproxy是不记录日志的;

通过配置haproxy.cfg使其记录日志

haproxy.cfg:开启haproxy日志记录

log 127.0.0.1 local2
    /etc/rsyslog.conf:利用rsyslog接收日志:

去掉这两行的注释:
            $ModLoad imudp    
            $UDPServerRun 514
        新增这一行:
            local2.* /var/log/haproxy.log

重启rsyslog,查看udp的514端口是否开启:

#/etc/init.d/rsyslog restart

#netstat -tunpl

配置haproxy记录更详细的日志:

默认的日志可读性很差,我们需要显示更多的信息,但默认的都捕获不到,只能自定义需要显示的内容了

capture request header Host len 64
    capture request header User-Agent len 128
    capture request header X-Forwarded-For len 100
    capture request header Referer len 200
    capture response header Server len 40
    capture response header Server-ID len 40
    log-format %ci:%cp\ %si:%sp\ %B\ %U\ %ST\ %r\ %b\ %f\ %bi\ %hrl\ %hsl\

重启haproxy即可

时间: 2024-10-10 20:48:35

haproxy配置日志及自定义日志的相关文章

MyBatis应用开发(7)日志之自定义日志实现

1.1. 自定义日志实现 实现MyBatis提供的org.apache.ibatis.logging.Log接口即可. public interface Log { boolean isDebugEnabled(); boolean isTraceEnabled(); void error(String s, Throwable e); void error(String s); void debug(String s); void trace(String s); void warn(Stri

统一采集日志,自定义日志分析器、为什么要创建新字段?提取和建立新字段索引

原文地址:http://blog.51cto.com/13922960/2173090

手把手教你完成MaxCompute JDBC自定义日志配置

注:MaxCompute原名ODPS,是阿里云自研的大数据计算平台,文中出现的MaxCompute与ODPS都指代同一平台,不做区分 与MaxCompute JDBC相关的日志有两种,一种是由JDBC内部代码直接输出的日志,第二种是JDBC抛出异常后,由调用JDBC API的宿主应用捕获后输出的.由于第二类日志取决于宿主应用如何处理异常及如何配置日志体系,所以本文主要讨论的对象是第一种日志. 在2.0-beta之前,MaxCompute JDBC的日志只会输出到命令行终端(标准输出流),它底层使

ATS配置自定义日志

修改records.config,开启日志自定义功能 更改日志目录,默认日志存放在/var/log/trafficserver: CONFIG proxy.config.log.logfile_dir STRING /var/log/trafficserver 更改默认日志的输出格??式,按照ASCII码输出日志 CONFIG proxy.config.log.squid_log_is_ascii INT 1 关闭squid格式的日志输出 CONFIG proxy.config.log.squi

log4cplus使用(二)-自定义日志等级

log4cplus支持用户自定义日志等级,操作也比较简单,使用之前贴如下宏定义 #define LOG4CPLUS_MACRO_CREASH_LOG_LEVEL(pred) LOG4CPLUS_UNLIKELY(pred) namespace log4cplus {  const LogLevel CREASH_LOG_LEVEL = 55000; } #define LOG4CPLUS_CREASH(logger, logEvent) LOG4CPLUS_MACRO_BODY(logger,

YII2 自定义日志路径

YII 提供的日志写入方法: 1.Yii::getLogger()->log($message, $level, $category = 'application') 2.Yii::trace($message, $category = 'application'); 3.Yii::error($message, $category = 'application');4.Yii::warning($message, $category = 'application');5.Yii::info($

[Enterprise Library for .NET Framework 2.0]自定义日志路径或日志文件名称

有时候,日志输出的时候会根据时间来分类,譬如"20140821\trace.log",在Enterprise Library中通过工具配置,只能定义日志文件名称,可以通过代码修改FlatFileTraceListenerData实现或Custom Trace Listener方式, 通过代码修改FlatFileTraceListenerData实现代码如下: public static string GetTraceLogPath(string listenersName) { str

keepalived双主互备和自定义日志

自定义日志: keepalived的日志默认存储在/var/log/messages 有时我们会有需要将keepalived日志拿出来单独分析,那么这就需要我做自己去定义 /etc/sysconfig/keepalived #编辑keepalived的环境配置文件 KEEPALIVED_OPTIONS="-D -d -S 0" #修改内容 # --dump-conf -d  导出配置数据 # --log-detail -D  详细日志信息 # --log-facility -S  设置

网站流量日志数据自定义采集实现

为什么要进行网站流量数据统计分析? 随着大数据时代的到来,各行各业产生的数据呈爆发式增长,大数据的技术从之前的"虚无"变成可能,数据产生的各种潜在价值慢慢的被人们挖掘出来利用在各行各业上.比如网站流量数据统计分析,可以帮助网站管理员.运营人员.推广人员等实时获取网站流量信息,并从流量来源.网站内容.网站访客特性等多方面提供网站分析的数据依据.从而帮助提高网站流量,提升网站用户体验,让访客更多的沉淀下来变成会员或客户,通过更少的投入获取最大化的收入. 网站流量日志数据采集原理分析 首先,