基于LogAnalyzer实现简易日志系统

前言:由于现运行的信息系统种类繁多,为了安全考虑,应用、数据库、网络等日志数据需要统一存储,再发生故障时用于事件回溯,运维人员可通过LogAnalyzer系统实现日志的集中查询。现将系统部署方式进行分享。

Syslog日志分析系统部署手册

一、部署LAMP环境

1、安装CentOS操作系统,系统版本号6.5

2、安装rsyslog,如下图所示:

3、安装mysql,如下图所示:

4、安装http,如下图所示:

5、安装php,如下图所示:

二、配置服务器后台应用

1、创建数据库用户

mysqladmin -uroot password ‘<password>

2、导入数据库

cd /usr/share/doc/rsyslog7-mysql-7.4.10/

mysql -uroot -p < createDB.sql

3、数据库授权

mysql> grant all privileges on Syslog to <name>@localhost identified by‘<password>‘;

mysql> grant all on Syslog.* to <name>@localhostidentified by ‘<password>‘;

mysql> flush privileges;

4、配置rsyslog.conf

添加以下字段

$ModLoad ommysql

*.* :ommysql:localhost,Syslog,<name>,<password>

取消注释以下字段

$ModLoad immark

//immark是模块名,支持日志标记

$ModLoad imudp

//imupd是模块名,支持udp协议

$UDPServerRun 514

//允许514端口接收使用UDP和TCP协议转发过来的日志

编辑/etc/bashrc,添加以下字段

export PROMPT_COMMAND=‘{ msg=$(history 1 | {read x y; echo $y; });logger "[euid=$(whoami)]":$(who ami):[`pwd`]"$msg"; }‘

使其生效

source /etc/bashrc

5、下载LogAnalyzer

wget http://download.adiscon.com/loganalyzer/loganalyzer-3.6.5.tar.gz

tar zxf loganalyzer-3.6.5.tar.gz

cd loganalyzer-3.6.5

mkdir -p /var/www/html/loganalyzer

rsync -a src/* /var/www/html/loganalyzer/

三、安装LogAnalyzer

1、打开浏览器访问:http://192.168.1.107/loganalyzer/,如下图所示:

提示没有配置文件,点击 here 利用向导生成。

2、 第一步,测试系统环境,如下图所示:

3、点击 “Next”,进入第二步,如下图所示:

4、第三步,基础配置,如下图所示:

在User Database Options 中,填入上面设置的参数,然后点击 Next。

5、第四步,创建表,如下图所示:

点击 Next 开始创建表。

6、第五步,检查SQL结果,如下图所示:

7、第六步,创建管理用户,如下图所示:

8、 第七步,创建第一个系统日志source,如下图所示:

9、第八步,完成,如下图所示:

时间: 2025-01-02 18:43:56

基于LogAnalyzer实现简易日志系统的相关文章

菜鸟的蜕变:教你一步一步创建基于laravel5的简易论坛系统(3)

上篇文章我已经带大家熟悉了laravel框架的基本结构.路由功能.控制器.视图等各个部分交互方式,这篇文章继续带大家做一下其他页面. 创建帖子内容页和个人主页路由,增加 Route::get('article_show/{id}','Home\[email protected]_show'); //帖子内容页 Route::get('Profile/{id}','Home\[email protected]'); //个人主页 创建\luntan\app\Http\Controllers\Use

使用Slf4j集成Log4j2构建项目日志系统的完美解决方案

一.背景 最近因为公司项目性能需要,我们考虑把以前基于的log4j的日志系统重构成基于Slf4j和log4j2的日志系统,因为,使用slf4j可以很好的保证我们的日志系统具有良好的兼容性,兼容当前常见几种日志系统,而使用log4j2而不是log4j是因为Log4j 1.x 在高并发情况下出现死锁导致cpu使用率异常飙升,而Log4j2.0基于LMAX Disruptor的异步日志在多线程环境下性能会远远优于Log4j 1.x和logback(官方数据是10倍以上). 关于slf4j的原理以及优点

Java日志系统框架的设计与实现

推荐一篇好的文章介绍java日志系统框架的设计的文章:http://soft.chinabyte.com/database/438/11321938.shtml 文章内容总结: 日志系统对跟踪调试.程序状态记录.数据恢复等功能有重要作用 日志系统一般作为服务进程或者系统调用存在,我们一般程序中使用系统调用 常用日志系统包括log4j的简单介绍 日志系统的系统架构 日志系统的信息分级 日志输出的设计 下面是全文的引用: 在Java领域,存在大量的日志组件,open-open收录了21个日志组件.日

分布式实时日志系统(一)环境搭建之 Jstorm 集群搭建过程/Jstorm集群一键安装部署

最近公司业务数据量越来越大,以前的基于消息队列的日志系统越来越难以满足目前的业务量,表现为消息积压,日志延迟,日志存储日期过短,所以,我们开始着手要重新设计这块,业界已经有了比较成熟的流程,即基于流式处理,采用 flume 收集日志,发送到 kafka 队列做缓冲,storm 分布式实时框架进行消费处理,短期数据落地到 hbase.mongo中,长期数据进入 hadoop 中存储. 接下来打算将这其间所遇到的问题.学习到的知识记录整理下,作为备忘,作为分享,带给需要的人. 淘宝开源了许多产品组件

分布式实时日志系统(二) 环境搭建之 flume 集群搭建/flume ng资料

最近公司业务数据量越来越大,以前的基于消息队列的日志系统越来越难以满足目前的业务量,表现为消息积压,日志延迟,日志存储日期过短,所以,我们开始着手要重新设计这块,业界已经有了比较成熟的流程,即基于流式处理,采用 flume 收集日志,发送到 kafka 队列做缓冲,storm 分布式实时框架进行消费处理,短期数据落地到 hbase.mongo中,长期数据进入 hadoop 中存储. 接下来打算将这其间所遇到的问题.学习到的知识记录整理下,作为备忘,作为分享,带给需要的人. 学习flume ng的

日志系统之基于flume收集docker容器日志

最近我在日志收集的功能中加入了对docker容器日志的支持.这篇文章简单谈谈策略选择和处理方式. 关于docker的容器日志 docker 我就不多说了,这两年火得发烫.最近我也正在把日志系统的一些组件往docker里部署.很显然,组件跑在容器里之后很多东西都会受到容器的制约,比如日志文件就是其中之一. 当一个组件部署到docker中时,你可以通过如下命令在标准输出流(命令行)中查看这个组件的日志: docker logs ${containerName} 日志形如: 但这种方式并不能让你实时获

日志系统之基于Zookeeper的分布式协同设计

最近这段时间在设计和实现日志系统,在整个日志系统系统中Zookeeper的作用非常重要--它用于协调各个分布式组件并提供必要的配置信息和元数据.这篇文章主要分享一下Zookeeper的使用场景.这里主要涉及到Zookeeper在日志系统中的使用,但其实它在我们的消息总线和搜索模块中也同样非常重要. 日志元数据 日志的类型和日志的字段这里我们统称为日志的元数据.我们构建日志系统的目的最终主要是为了:日志搜索,日志分析.这两大块我们很大程度上依赖于--ElasticSearch(关于什么是Elast

打造基于hadoop的网站日志分析系统(5)之spark在日志分析系统里的简单应用

1.下载spark和运行 wget http://apache.fayea.com/apache-mirror/spark/spark-1.0.0/spark-1.0.0-bin-hadoop2.tgz 我这里下载的是1.0.0版,由于我们只是测试spark的用法所以不需要配置spark集群,只需把下好的文件解压,进入bin/文件夹. spark支持scala,java和python. scala和java输入命令:./spark-shell python 输入命令 ./pyspark 进入控制

基于Flume的美团日志收集系统(一)架构和设计【转】

美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流.美团的日志收集系统基于Flume设计和搭建而成. <基于Flume的美团日志收集系统>将分两部分给读者呈现美团日志收集系统的架构设计和实战经验. 第一部分架构和设计,将主要着眼于日志收集系统整体的架构设计,以及为什么要做这样的设计. 第二部分改进和优化,将主要着眼于实际部署和使用过程中遇到的问题,对Flume做的功能修改和优化等. 1 日志收集系统简介 日志收集是大数据的基石.