Lepus搭建企业级数据库慢查询分析平台

前言

Lepus的慢查询分析平台是独立于监控系统的模块,该功能需要使用percona-toolkit工具来采集和记录慢查询日志,并且需要部署一个我们提供的shell脚本来进行数据采集。该脚本会自动开启您数据库的慢查询日志,并对慢查询日志进行按小时的切割,并收集慢查询日志的数据到监控机数据库。随后您通过Lepus系统就可以分析慢查询了。

安装

安装 percona-toolkit

yum -y install perl perl-devel libaio libaio-devel perl-Time-HiRes perl-IO-Socket-SSL perl-DBI perl-DBD-MySQL

下载地址:https://www.percona.com/downloads/percona-toolkit/LATEST/

## 你也可以选择其他版本
wget https://www.percona.com/downloads/percona-toolkit/2.2.6/RPM/percona-toolkit-2.2.6-1.noarch.rpm

安装:

rpm -ivh percona-toolkit-2.2.6-1.noarch.rpm

开启慢查询分析

在 MySQL 服务器管理里面电击右侧的编辑按钮,进入服务器编辑界面,开启慢查询日志。

慢查询脚本

#!/bin/bash
#****************************************************************#
# ScriptName:/usr/local/sbin/lepus_slowquery.sh
# Create Date:2018-11-05
#***************************************************************#

# configlepus database server 监控端
lepus_db_host="192.168.1.180"
lepus_db_port=9002
lepus_db_user="lepus_user"
lepus_db_password="password"
lepus_db_database="lepus"

# configmysql server 被监控端
# 通过 which mysql 命令查询位置
mysql_client="/usr/local/mysql/bin/mysql"
mysql_host="192.168.1.190"
mysql_port=3306
mysql_user="root"
mysql_password="root"

# configslowqury
# 慢查询日志存放地址
slowquery_dir="/data/mysql/"
# 慢日志时间1s,可以自行定义
slowquery_long_time=1
# 获取被监控端慢日志存放位置
slowquery_file=`$mysql_client -h$mysql_host -P$mysql_port -u$mysql_user -p$mysql_password -e "show variables like ‘slow_query_log_file‘;" | grep log | awk ‘{print $2}‘`
# 通过 which pt-query-digest 命令查询位置
pt_query_digest=`/usr/bin/pt-query-digest`

# config server_id,从监控列表查找ID,必须一致,否则无法展示数据
lepus_server_id=1

# collect mysqlslowquery log into lepus database;
# 收集慢日志存储到天兔监控数据库
$pt_query_digest --user=$lepus_db_user --password=$lepus_db_password --port=$lepus_db_port --charset=utf8 --review h=$lepus_db_host,D=$lepus_db_database,t=mysql_slow_query_review --history h=$lepus_db_host,D=$lepus_db_database,t=mysql_slow_query_review_history --no-report --limit=100% --filter="\$event->{add_column} = length(\$event->{arg}) and\$event->{serverid}=$lepus_server_id " $slowquery_file 2> /dev/null

# set a new slowquery log;
tmp_log=`$mysql_client -h$mysql_host -P$mysql_port -u$mysql_user -p$mysql_password -e "select concat(‘$slowquery_dir‘,‘slow_‘,date_format(now(),‘%Y%m%d%H‘),‘.log‘);" | grep log | sed -n -e ‘2p‘`

# config mysqlslowquery;
$mysql_client -h$mysql_host -P$mysql_port -u$mysql_user -p$mysql_password -e "set global slow_query_log=1;set global long_query_time=$slowquery_long_time;" 2> /dev/null
$mysql_client -h$mysql_host -P$mysql_port -u$mysql_user -p$mysql_password -e "set global slow_query_log_file = ‘$tmp_log‘;" 2> /dev/null

# delete log before 7days;
cd $slowquery_dir
/usr/bin/find ./ -name ‘slow_*‘ -mtime +7 | xargs rm -rf

配置完成后保存,并加入计划任务。因为慢查询做了按小时的切割,建议计划任务时间间隔在1小时之内。

将以上脚本加入定时任务:

crontab -e

写入脚本:

*/5 * * * * sh /usr/local/sbin/lepus_slowquery.sh > /dev/null 2>&1

这里,我们也可以手动执行看一下效果,登录监控端服务,查看慢查询相关参数:

mysql> show variables like ‘slow_query%‘;
+---------------------------+--------------------------------------+
| Variable_name             | Value                                |
+---------------------------+--------------------------------------+
| slow_query_log            | OFF                                  |
| slow_query_log_file       | /data/mysql/slowquery_2018110609.log |
+---------------------------+--------------------------------------+

mysql> show variables like ‘long_query_time‘;
+-----------------+-----------+
| Variable_name   | Value     |
+-----------------+-----------+
| long_query_time | 0.500000 |
+-----------------+-----------+

参数说明

  • slow_query_log 慢查询开启状态
  • slow_query_log_file 慢查询日志存放的位置(这个目录需要MySQL的运行帐号的可写权限,一般设置为MySQL的数据存放目录)
  • long_query_time 查询超过多少秒才记录

展示

配置完成后,稍等片刻,即可在慢查询分析平台查看该库的慢查询日志。

小结

被监控监控机通过 percona-toolkit 工具和 shell 脚本来采集慢查询日志并发送到监控机,Lepus的慢查询分析平台对采集数据进行展示和分析。

参考

http://www.lepus.cc/post/53

https://gitee.com/ruzuojun/Lepus/tree/master/client/mysql

原文地址:https://www.cnblogs.com/smallSevens/p/9921949.html

时间: 2024-10-29 19:05:34

Lepus搭建企业级数据库慢查询分析平台的相关文章

Lepus搭建企业级数据库全方位监控系统

前言 Lepus(天兔)数据库企业监控系统是一套由专业DBA针对互联网企业开发的一款专业.强大的企业数据库监控管理系统,企业通过Lepus可以对数据库的实时健康和各种性能指标进行全方位的监控.目前已经支持MySQL.Oracle.MongoDB.Redis数据库的全面监控. Lepus可以在数据库出现故障或者潜在性能问题时,根据用户设置及时将数据库的异常进行报警通知到数据库管理员进行处理和优化,帮助企业解决数据库性能监控问题,及时发现性能和瓶颈,避免由数据库潜在问题造成的直接经济损失. Lepu

天兔(Lepus)监控系统慢查询分析平台安装配置

转http://suifu.blog.51cto.com/9167728/1770672 被监控端要安装pt工具 1 2 3 4 [[email protected]~]## yum -y install perl-IO-Socket-SSL [[email protected]~]## yum -y install perl-DBI [[email protected]~]## yum -y install perl-DBD-MySQL [[email protected]~]## yum -

天兔(LEPUS)监控系统慢查询分析平台配置

被监控端要安装pt工具 [[email protected]~]# tar xvf percona-toolkit-2.2.12.tar.gz [[email protected]~]# cd percona-toolkit-2.2.12 [[email protected]]# perl Makefile.PL [[email protected]]# make && make install 安装好后pt工具会在/usr/local/bin下,不同pt版本安装位置可能不同 把lepus

centos7搭建ELK Cluster日志分析平台(一)

应用场景:ELK实际上是三个工具的集合,ElasticSearch + Logstash + Kibana,这三个工具组合形成了一套实用.易用的监控架构, 很多公司利用它来搭建可视化的海量日志分析平台. 官网下载地址:https://www.elastic.co/downloads  Elasticsearch: 一个基于Lucene的搜索服务器.它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口. Elasticsearch是用Java开发的,并作为Apache许可条款

安装logstash+kibana+elasticsearch+redis搭建集中式日志分析平台

本文是参考logstash官方文档实践的笔记,搭建环境和所需组件如下: Redhat 5.7 64bit / CentOS 5.x JDK 1.6.0_45 logstash 1.3.2 (内带kibana) elasticsearch 0.90.10 redis 2.8.4 搭建的集中式日志分析平台流程如下: elasticsearch 1.下载elasticsearch. wget https://download.elasticsearch.org/elasticsearch/elasti

使用Apache Kylin搭建企业级开源大数据分析平台

使用Apache Kylin搭建企业级开源大数据分析平台 转:http://www.thebigdata.cn/JieJueFangAn/30143.html 我先做一个简单介绍我叫史少锋,我曾经在IBM.eBay做过大数据.云架构的开发,现在是Kyligence的技术合伙人. Kylin是这两年在国内发展非常快的开源大数据项目.今天大会合作厂商中有超过一半的企业已经在使用或者正在试用Kylin,应主办方邀请,今天跟大家做一个关于如何使用Kylin构建开源大数据分析平台的分享. 这是我今天的议程

【MongoDB】windows平台搭建Mongo数据库复制集(类似集群)(转)

原文链接:[MongoDB]windows平台搭建Mongo数据库复制集(类似集群)(一) Replica  Sets(复制集)是在mongodDB1.6版本开始新增的功能,它可以实现故障自动切换和自动修复功能成员节点的功能,各个DB之间的数据完全一致,大大降低了单点故障的风险. [] 以上图示是三个节点的Replica Set架构.该图来源于红丸编写的<Mongodb管理与开发精要>这本书.从上图可以看出,结构类似与一个集群,其实完全可以当做一个集群.因为它确实和集群实现的作用是相同的. 一

瀚思推出国内首个企业级大数据安全分析平台

大数据时代的到来,让不少行业已经发现了自身数据的巨大内在价值:它们能揭示传统手段所看不到的新变化趋势,如深入理解消费者行为.广 告效果.业务趋势等,而在企业IT市场却鲜有标杆案例.尤其在信息安全领域,随着企业安全架构日趋复杂,安全设备种类繁多,实时生成的安全数据也已成几何 级数增长,这部分数据的内在价值如何挖掘?同时,更具隐蔽性的网络和黑客攻击造成的数据泄露,给企业乃至国家机关或政府都带来了巨大威胁.仅在2014 年,全球就发生了多起信息数据遭攻击与泄露事件,如JPMorgan 7600万用户受

MyCAT+MySQL 搭建高可用企业级数据库集群

第1章 课程介绍课程介绍1-1 MyCAT导学 试看1-2 课程介绍 第2章 MyCAT入门这一章中,我们将回顾了垂直切分,水平切分,分库分表等基础概念,然后快速回如何安装和启动MyCAT的,介绍如何以打包好的可执行程序的方式来启动MyCAT.以及如何对其相关的启动配置文件进行配置.2-1 章节综述2-2 什么是MyCAT2-3 什么是数据库中间层2-4 MyCAT的主要作用2-5 MyCAT基本元素2-6 MyCAT安装 第3章 MYCAT核心配置详解本章将对MyCAT的常用核心配置文件ser