利用OSSIM收集分析远程apache日志(视频教程)

环境:

OSSIM Server : 192.168.11.228 日志搜集器

Http Server   : 192.168.11.15     日志发生器

通过设置192.168.11.15机器上的rsyslog转发到192.168.11.228实现日志收集,利用apache 插件归一化处理并入库分析。

时长: 约14分钟

浏览地址: http://edu.51cto.com/index.php?do=lesson&id=93652

51CTO学院优秀讲师评选中,我期待您的宝贵一票! http://edu.51cto.com/lecturer/user_id-350944.html

时间: 2024-11-05 23:40:40

利用OSSIM收集分析远程apache日志(视频教程)的相关文章

iOS 技术篇: 如何利用dsym文件分析苹果被拒日志

今天提审被拒了.伤心?? 苹果给出被拒崩溃的原因如下 全是二进制 完全看不出问题 不得已 只能用dsym去解析日志文件. 首先我去下载了dsym 解析工具:   附上地址 : https://github.com/answer-huang/dSYMTools 运行程序. 接下来进入重点: 第一步: 如何找到dsym文件 ? (1)在xcode工具栏里 找到Window - organizer (2)找到发版包 Show in Finder ---- 显示包内容 这时候呢 就可以看到dsym文件了

【20180417】ELK日志管理之filebeat收集分析mysql慢日志

环境版本 filebeat: 6.2.3mysql: 5.6.38 错误信息 { "_index": "mysql-slow-2018.04.17", "_type": "doc", "_id": "AWLRiDqYhjFMCbqrK5ez", "_version": 1, "_score": null, "_source":

用OSSIM轻松分析网络设备日志

用OSSIM轻松分析网络设备日志 基于插件的日志收集与处理模式,使得用户可以轻松的利用OSSIM来分析异构网络环境下的各种网络设备日志,下面展示一些硬件设备日志的实例,我们在RAW LOG界面里,搜索栏输入Cisco关键词,立即列出数据源中已有Cisco 路由器.防火墙.交换机等各种搜索条件,你只要知道硬件型号基本都能找到对应数据源.首先以思科ASA防火墙为例来为大家说明. 在系统中通过饼图将各类日志直观的展现给用户,便于查阅. 从网络设备日志收集的日志,经过插件归一化处理之后,转换为标准化事件

Flume-NG + HDFS + HIVE 日志收集分析

最近做了一个POC,目的是系统日志的收集和分析,此前有使用过splunk,虽然用户体验很好,但一是价格昂贵,二是不适合后期开发(splunk已经推出了SDK,后期开发已经变得非常容易).在收集TB级别的日志量上flume-ng是更好的选择,因为后面的存储是扩展性极佳的HDFS.先简要介绍一下测试环境: 5台VM机器(RHEL6.3): 1, collector01 2, namenode 3, datanode01 4, datanode02 5, datanode03 第一台机器collect

利用WebLog Experet分析日志获取性能需求

一.下载WebLog Expert日志分析工具 官网下载地址:http://www.weblogexpert.com/download.htm 二.安装 安装很简单,点击“下一步”默认安装即可 三.配置tomcat,自动生成访问日志(localhost_access_YYYY_MM_dd.log) Tomcat默认情况下是没有开启自动生成访问日志,也就是说在tomcat/logs目录下没有类似access.log的日志文件,开启tomcat访问日志需要修改tomcat/conf/server.x

logstash日志收集分析系统elasticsearch&kibana

logstash日志收集分析系统Logstash provides a powerful pipeline for storing, querying, and analyzing your logs. When using Elasticsearch as a backend data store and Kibana as a frontend reporting tool, Logstash acts as the workhorse. It includes an arsenal of

日志收集分析系统架构

日志收集分析系统架构   一.部署架构 日志收集系统一般包括如图所示三层.Web服务器层,日志收集层,日志存储层.Web服务器层是日志的来源,一般部署web应用供用户访问,产生日志,该节点上一般需要部署日志收集程序的agent.日志收集层手机web服务器产生的日志传输给日志存储层,存储层一般使用分布式文件系统HDFS,日志可以存储在hdfs上或者hbase上. 以scribe作为日志收集系统架构,scribe分为scribe agent和scribe server 以kafka作为日志收集系统架

shell脚本分析apache日志状态码

一.首先将apache日志按天切割 vi /etc/httpd/conf/httpd.confErrorLog "|rotatelogs /var/log/httpd/%Y%m%derror_log 86400 480″CustomLog "|rotatelogs /var/log/httpd/%Y%m%daccess_log 86400 480″ combined 二.重启apache服 service httpd restart ##################apahce日志

linux分析apache日志获取最多访问的前10个IP

apache日志分析可以获得很多有用的信息,现在来试试最基本的,获取最多访问的前10个IP地址及访问次数. 既然是统计,那么awk是必不可少的,好用而高效. 命令如下: awk '{a[$1] += 1;} END {for (i in a) printf("%d %s\n", a[i], i);}' 日志文件 | sort -n | tail 首先用awk统计出来一个列表,然后用sort进行排序,最后用tail取最后的10个. 以上参数可以略作修改显示更多的数据,比如将tail加上-