flume发送与接受日志

apache-flume-1.5.0.1-bin.tar.gz

日志接收端

1.修改配置文件
cp flume-conf.properties.template flume-conf.properties
vim flume-conf.properties
collector1.sources = AvroIn
collector1.sources.AvroIn.type = avro
collector1.sources.AvroIn.bind = 0.0.0.0
collector1.sources.AvroIn.port = 4545
collector1.sources.AvroIn.channels = mc1

collector1.channels = mc1
collector1.channels.mc1.type = memory
collector1.channels.mc1.capacity = 100

collector1.sinks = LocalOut

collector1.sinks.LocalOut.type = file_roll
collector1.sinks.LocalOut.sink.directory = /var/log/flume/collector1
collector1.sinks.LocalOut.sink.rollInterval = 0
collector1.sinks.LocalOut.channel = mc1

cp flume-env.sh.template  flume-env.sh
vim flume-env.sh
修改JAVA_HOME

2.运行
bin/flume-ng agent -c conf -f conf/flume-conf.properties -n collector1

日志发送端
1.修改配置文件
cp flume-conf.properties.template flume-conf.properties
vim flume-conf.properties
agent1.sources = ngrinder
agent1.sources.ngrinder.type = exec
agent1.sources.ngrinder.command = tail -F /var/log/apache2/access.log
agent1.sources.ngrinder.channels = mc1

agent1.channels = mc1
agent1.channels.mc1.type = memory
agent1.channels.mc1.capacity = 100

agent1.sinks = avro-sink

agent1.sinks.avro-sink.type = avro
agent1.sinks.avro-sink.channel = mc1
agent1.sinks.avro-sink.hostname = 192.168.0.111
agent1.sinks.avro-sink.port = 4545
#缓存日志断点续传
agent1.channels.memory4log.type = memory
agent1.channels.memory4log.capacity = 1000
agent1.channels.memory4log.transactionCapacity = 100

cp flume-env.sh.template  flume-env.sh
vim flume-env.sh
修改JAVA_HOME

2.执行
bin/flume-ng agent -c conf -f conf/flume-conf.properties -n agent1

3.注意
/var/log/flume/collector1/ 要写入权限
/var/log/apache2/access.log  要读取权限
时间: 2024-10-06 10:42:02

flume发送与接受日志的相关文章

C++传智笔记(6):socket客户端发送报文接受报文的api接口

#define _CRT_SECURE_NO_WARNINGS #include "stdio.h" #include "stdlib.h" #include "string.h" #include "itcast_comm.h" #include "memwatch.h" #include "itcastlog.h" /* 下面定义了一套socket客户端发送报文接受报文的api接口

【整理】Asp.net HttpWebRequest和HttpWebResponse发送和接受任何类型数据

[整理]Asp.net HttpWebRequest和HttpWebResponse发送和接受任何类型数据 发送数据 //当前页面地址 string currentUrl = Request.Url.ToString(); string fileName = "复制文件"; string url = currentUrl.Substring(0, currentUrl.LastIndexOf('/')) + "/Default2.aspx?id=" + fileNa

发送JS错误日志到服务器

JS记录错误日志/捕捉错误 //onerror提供异常信息,文件路径和发生错误代码的行数的三个参数. window.onerror = function(e,url,index){ var msg = e.message || e|| "未知错误"; alert("错误信息:"+msg+",错误路径:"+ul+",行数:"+index); } ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1

EMS查看及修改邮箱发送和接受邮件大小的方法

默认情况下,新建用户邮箱没有进行单独设置,故用户邮箱默认值为"Unlimited"(未限制),即遵从全局设置(继承邮箱数据库策略).通过EMS查看用户邮箱发送和接受邮件大小的默认值,键入以下命令. Get-Mailbox wsj | Fl MaxsendSize,MaxReceiveSize (2)EMS限制用户发送和接受邮件大小(以用户"wsj"限制邮件发送和接受大小20mb为例).键入以下命令. Set-Mailbox wsj -MaxSendSize 20mb

THttpCli发送和接受数据,代替indy10 TidHttp解决超时时间无效的问题

var StartTime:Integer; //由于Indy10碰到网络异常断掉,Indy超时时间无效的问题,需要安装第三方控件 OverByteICS 解决这个问题.procedure TFormPost.Button2Click(Sender: TObject); //发送overbyte 控件ICS var Data: AnsiString; AJson: TQJson; Strtemp: string; strData: string; postcmd: AnsiString; msR

基于Flume+LOG4J+Kafka的日志采集架构方案

本文将会介绍如何使用 Flume.log4j.Kafka进行规范的日志采集. Flume 基本概念 Flume是一个完善.强大的日志采集工具,关于它的配置,在网上有很多现成的例子和资料,这里仅做简单说明不再详细赘述.Flume包含Source.Channel.Sink三个最基本的概念: Source——日志来源,其中包括:Avro Source.Thrift Source.Exec Source.JMS Source.Spooling Directory Source.Kafka Source.

日志系统之基于flume收集docker容器日志

最近我在日志收集的功能中加入了对docker容器日志的支持.这篇文章简单谈谈策略选择和处理方式. 关于docker的容器日志 docker 我就不多说了,这两年火得发烫.最近我也正在把日志系统的一些组件往docker里部署.很显然,组件跑在容器里之后很多东西都会受到容器的制约,比如日志文件就是其中之一. 当一个组件部署到docker中时,你可以通过如下命令在标准输出流(命令行)中查看这个组件的日志: docker logs ${containerName} 日志形如: 但这种方式并不能让你实时获

CISCO设备日志发送到log日志服务器

en conf t clock timezone GMT+8  #设置北京时间 exit clock set HH:MM:SS DAY MONTH YEAR  #设置当前时间 service timestamps debug uptime #开启debug调试模式 service timestamps log datetime localtime #开启log日志增加时间戳 log on     #启动log功能 loggin 192.168.1.100  #配置日志发送到192.168.1.1

kibana显示elasticsearch集群中flume到入的日志

日志通过flume导入elasticsearch集群见这里:flume 日志导入elasticsearch kibana介绍 kibana主页 kibana是一个功能强大的elasticsearch数据显示client,logstash已经内置了kibana.你也能够单独部署kibana,最新版的kibana3是纯html+jsclient.能够非常方便的部署到Apache.Nginx等Httpserver. kibana3的地址: https://github.com/elasticsearc