日志分析 第七章 安装grafana

grafana依赖mysql存储数据,首先需要安装mysql

安装mysql

解压

# groupadd mysql
# useradd -s /sbin/nologin -g mysql mysql
# tar xf mysql-5.6.14.tar.gz -C /usr/local/src/

编译参数

# cmake -DCMAKE_INSTALL_PREFIX=/usr/local/app/mysql-5.6.14 -DMYSQL_DATADIR=/data/mysql -DMYSQL_UNIX_ADDR=/tmp/mysql.sock -DENABLED_LOCAL_INFILE=1 -DWITH_INNOBASE_STORAGE_ENGINE=1 -DWITH_ARCHIVE_STORAGE_ENGINE=1 -DWITH_BLACKHOLE_STORAGE_ENGINE=1 -DWITH_FEDERATED_STORAGE_ENGINE=1 -DWITH_EXAMPLE_STORAGE_ENGINE=1 -DWITH_PARTITION_STORAGE_ENGINE=1 -DWITH_MYISAM_STORAGE_ENGINE=1 -DWITH_PERFSCHEMA_STORAGE_ENGINE=1 -DMYSQL_TCP_PORT=3306 -DEXTRA_CHARSETS=all -DDEFAULT_CHARSET=utf8 -DDEFAULT_COLLATION=utf8_general_ci -DMYSQL_USER=mysql -DWITH_DEBUG=0 \

编译参数

编译

# make –j 8
# make install
# mkdir /data/mysql

初始化

# cp support-files/mysql.server /etc/init.d/mysqld
# chmod +x /etc/init.d/mysqld
# chkconfig --add mysqld

启动脚本

# chown -R root.mysql /usr/local/mysql
# chown -R mysql.mysql /data/mysql
# yum install wget ncurses-devel
#./scripts/mysql_install_db --user=mysql  --basedir=/usr/local/app/mysql-5.6.14 --datadir=/data/mysql

PATH、头文件、库文件及man帮助文档配置

# echo "export PATH=$PATH:/usr/local/mysql/bin" >> /etc/profile
# echo "/usr/local/mysql/lib/" >> /etc/ld.so.conf
# ln -sv /usr/local/mysql/include/ /usr/include/mysql
# echo "MANPATH /usr/local/mysql/man" >> /etc/man.config

设置密码

# mysqladmin -uroot password ‘81-ES-BJVM‘

安全设置

mysql> drop database test;
mysql> drop user ‘‘@‘BJVM-ES-81‘;
mysql> drop user ‘‘@‘localhost‘;
mysql> drop user ‘root‘@‘::1‘;
mysql> drop user ‘‘@‘BJVM-ES-81‘;

安装grafana

[[email protected] ~]# tar xf grafana-3.1.1-1470047149.linux-x64.tar.gz
[[email protected] ~]# tar xf grafana-3.1.1-1470047149.linux-x64.tar.gz -C /usr/local/app/
[[email protected] ~]# ln -sv /usr/local/app/grafana-3.1.1-1470047149 /usr/local/grafana
[[email protected] ~]# cd /usr/local/grafana

修改配置文件custom.ini

# cp conf/defaults.ini conf/custom.ini

data = /data/grafana/data
logs =/data/grafana/log
plugins = /data/grafana/plugins
http_addr = 10.80.2.156
type = mysql
host = 10.80.2.81:3306
name = grafana
user = grafana
password =

授权

# mkdir –pv /data/grafana/{data,log,plugins}

# mysql> create database grafana;

# mysql> grant all privileges on grafana.* to [email protected]’10.80.2.81’ identified by “”;

时间: 2024-11-07 20:44:47

日志分析 第七章 安装grafana的相关文章

日志分析 第三章 安装前准备及系统初始化

服务器版本及硬件配置 操作系统 CentOS release 6.5 (Final) 内核版本 2.6.32-431.el6.x86_64 CPU Intel(R) Xeon(R) CPU E5-2690 v3 @ 2.60GHz 内存 16G 网卡 eth0 外网卡 eth1 内网卡 软件版本信息 软件 版本号 filebeat 1.2.3 logstash 2.3.4 elasticsearch 2.3.5 grafana 3.1.1 主机规划 IP 安装软件 功能 10.80.2.xxx

日志分析 第六章 安装elasticsearch

在这里,以两台es集群为例. es集群健康状况有三种状态,这里我们搭建的es集群,只要两台不同时挂掉,数据不会丢失. green 所有主要分片和复制分片都可用 yellow 所有主要分片可用,但不是所有复制分片都可用 red 不是所有的主要分片都可用 举个例子: 比如说现在集群节点es1位主节点,es2位复制分片节点,默认情况下,两台es都接收logstash传过来的日志,是负载均衡的. 如果es1宕掉,es2会被提升为主节点,只有es2接收logstash传来得日志数据,同时整个集群状态由gr

日志分析 第五章 安装logstash

logstash是java应用,依赖JDK,首先需要安装JDK,在安装jdk过程中,logstash-2.3.4使用JDK-1.7版本有bug,使用JDK-1.8版本正常,因此我们安装JDK-1.8版本. 安装JDK 官网地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html # rpm -ivh jdk-8u101-linux-x64.rpm # echo "export JA

Linux内核分析——第七章 链接

第七章——链接 1.链接是将各种代码和数据部分收集起来并组合成为一个单一文件的过程,这个文件可被加载到存储器并执行. 2.链接可以执行于编译时,加载时,运行时. 7.1编译器驱动程序 1.大多数编译系统提供编译驱动程序,它代表用户在需要时调用语言预处理器.编译器.汇编器和链接器. 7.2 静态链接 1.像Unix ld程序这样的静态链接器以一组可重定位目标文件和命令行参数作为输入,生成一个完全链接的可以加载运行的可执行目标文件作为输出. 2.输入的可重定位目标文件由各种不同的代码和数据节组成.

CentOS7使用Elasticsearch+ Logstash+kibana快速搭建日志分析平台

CentOS7使用Elasticsearch+ Logstash+kibana快速搭建日志分析平台 介绍: 安装logstash,elasticsearch,kibana三件套,搜索程序一般由索引链及搜索组件组成. 索引链功能的实现需要按照几个独立的步骤依次完成:检索原始内容.根据原始内容来创建对应的文档.对创建的文档进行索引. 搜索组件用于接收用户的查询请求并返回相应结果,一般由用户接口.构建可编程查询语句的方法.查询语句执行引擎及结果展示组件组成. Elasticsearch是个开源分布式搜

构建AWStats日志分析系统

需求描述 管理员搭建完服务器,要对网站的性能做后期的不断的分析和调整,以至达到最完美的状态.针对服务器每天的日志访问量.高峰时间.压力等等是通过日志信息系统分析.如果事前没有预估,没有给定足相应的cpu.内存.假如有一天突然高发值,服务器会直接崩溃.通过观察日志,以便在以后工作调整中提出整改方案. 简介 在httpd服务器的访问日志文件access_log中,记录了大量的客户机访问信息,通过分析这些信息,可以及时了解Web站点的访问情况,通过AWStats日志分析系统,以完成自动化的日志分析与统

Netty源码分析第7章(编码器和写数据)---->第2节: MessageToByteEncoder

Netty源码分析第七章: Netty源码分析 第二节: MessageToByteEncoder 同解码器一样, 编码器中也有一个抽象类叫MessageToByteEncoder, 其中定义了编码器的骨架方法, 具体编码逻辑交给子类实现 解码器同样也是个handler, 将写出的数据进行截取处理, 我们在学习pipeline中我们知道, 写数据的时候会传递write事件, 传递过程中会调用handler的write方法, 所以编码器码器可以重写write方法, 将数据编码成二进制字节流然后再继

Netty源码分析第7章(编码器和写数据)---->第4节: 刷新buffer队列

Netty源码分析第七章: 编码器和写数据 第四节: 刷新buffer队列 上一小节学习了writeAndFlush的write方法, 这一小节我们剖析flush方法 通过前面的学习我们知道, flush方法通过事件传递, 最终会传递到HeadContext的flush方法: public void flush(ChannelHandlerContext ctx) throws Exception { unsafe.flush(); } 这里最终会调用AbstractUnsafe的flush方法

squid的ACL、日志分析、反向代理

一.Squid 中 ACL 的使用 (1)ACL 访问控制方式:(2)ACL 规则优先级:(3)常用的 ACL 列表类型:(4)操作演示: 二.日志分析 第一步:安装 sarg 工具第二步:安装 Apache第三步:客户机上测试 三.反向代理 修改 /etc/squid.conf 文件添加以下代码:1.基于IP地址限制:2.基于时间限制:3.基于目标地址(就是web服务器地址)可以将拒绝的目标地址添加到一个文件中 二.日志分析 安装 sarg 工具Sarg(Squid Analysis Repo