flume 配置

[[email protected] data]#tar -zxvf apache-flume-1.7.0-bin.tar.gz
[[email protected] conf]# cp flume-env.sh.template flume-env.sh

修改java_home
[[email protected] conf]# cp flume-env.sh
export JAVA_HOME=/data/jdk
export JAVA_OPTS="-Xms100m -Xmx2000m -Dcom.sun.management.jmxremote"

flume.conf

#定义agent名, source,channel,sink的名称
a4.sources = r1
a4.channels = c1
a4.sinks = k1

#具体定义source
a4.sources.r1.type = spooldir
a4.sources.r1.spoolDir = /root/logs

#具体定义channel
a4.channels.c1.type = memory
a4.channels.c1.capacity = 10000
a4.channels.c1.transactionCapacity = 100

#定义拦截器,拦截一些无效的数据, 为消息添加时间戳,按照日志存入到当天的时间中
#a4.sources.r1.interceptors = i1
#a4.sources.r1.interceptors.i1 = org.apache.flume.interceptor.TimestampInterceptor$Builder

#定义sinks
a4.sinks.k1.type = hdfs
a4.sinks.k1.hdfs.path = hdfs://ns1/flume/%Y%m%d
a4.sinks.k1.hdfs.filePrefix = events-
a4.sinks.k1.hdfs.fileType = DataStream
#不按照条数生成文件
a4.sinks.k1.hdfs.rollCount = 0
#HDFS上的文件达到128M时生成一个文件
a4.sinks.k1.hdfs.rollSize = 134217728
#HDFS上的文件达到60秒生成一个文件
a4.sinks.k1.hdfs.rollInterval = 60

#组装 source、channel、sink
a4.sources.r1.channels = c1
a4.sinks.k1.channels = c1

[[email protected] lib]# scp namenode:/data/hadoop/etc/hadoop/{core-site.xml,hdfs-site.xml} /data/apache-flume-1.7.0-bin/conf

[[email protected] bin]# ./flume-ng agent -n a4 -c ../conf -f ../conf/a4.conf -Dflume.root.logger=INFO,console

报错1:
java.lang.NoClassDefFoundError: org/apache/hadoop/io/SequenceFile$CompressionType
[[email protected] lib]# scp 192.168.20.184:/data/hadoop//share/hadoop/common/hadoop-common-2.7.3.jar ./
报错2:
java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
[[email protected] lib]# scp 192.168.20.184:/data/hadoop//share/hadoop/common/lib/commons-configuration-1.6.jar ./
[[email protected] lib]# scp 192.168.20.184:/data/hadoop//share/hadoop/common/lib/hadoop-auth-2.7.3.jar ./
[[email protected] lib]# scp 192.168.20.184:/data/hadoop/share/hadoop/common/lib/htrace-core-3.1.0-incubating.jar ./

报错3
Caused by: java.lang.NoClassDefFoundError: org/apache/commons/io/Charsets
[[email protected] lib]# scp 192.168.20.184:/data/hadoop/share/hadoop/common/lib/commons-io-2.4.jar ./

[[email protected] bin]$ ./hdfs dfs -chown -R root /flume

时间: 2024-10-06 01:24:29

flume 配置的相关文章

Flume NG 学习笔记(二)单机与集群Flume 配置

下面的内容基本来自官网:http://flume.apache.org/FlumeUserGuide.html 本文使用的是最新版本的apache flume 1.5,安装完Flume然后测试下Flume是否可以用,在Flume目录下用以下语句测试: bin/flume-ng agent -n$agent_name -c conf -f conf/flume-conf.properties.template 结果如图显示: Ok,我们接下去看下面常用架构.功能配置示例 一.最简单的单一代理Flu

关于flume配置加载(二)

为什么翻flume的代码,一方面是确实遇到了问题,另一方面是想翻一下flume的源码,看看有什么收获,现在收获还谈不上,因为要继续总结.不够已经够解决问题了,而且确实有好的代码,后续会继续慢慢分享,这里先把启动的流程分析一下,这也是找到问题症结的关键. 至于遇到的问题如下: Caused by: org.apache.flume.ChannelException: Put queue for MemoryTransaction of capacity 100 full, consider com

flume配置

今天老大让我去调研flume+kafka+hdfs日志收集系统,下午就开始搭建相关的环境了.这里只是简单地介绍flume配置文件相关的,其他关于flume的基础知识请查看其他人的博客(有空我会补上) 首先是安装flume,安装方法可以根据官网上的方法来,官网地址为:https://cwiki.apache.org/confluence/display/FLUME/Getting+Started.不过按照官网的方法有点坑,首先需要安装maven,然后maven install, 但是这样insta

Flume配置|shell脚本|python|SQL

Flume是一种高可用的,高可靠的,分布式的海量日志采集.聚合和传输的系统. 可以看一下模型: 每一个flume代理(agent)可以提供一项flume服务.每一个代理有三个成员:source.channel.sink 如上图所示,由source获取数据并发送给channel,channel就好比一个缓冲区,由sink来从channel里读取数据. ---------------------------------------------- 暂时没有图写个思路先: 模型1:多source---1

日志收集系统Flume调研笔记第2篇 - Flume配置及使用实例

上篇笔记对Flume的使用场景和系统架构做了介绍,本篇笔记以实例说明Flume的配置方法.下面开始正文. 1. Flume使用实例 1.1 配置 Flume agent的3个组件及其拓扑关系是在配置文件中指定的,总的原则是必须列出source/channel/sink的name/type等重要的配置项,并通过channel将source(s)和sink(s)连接起来,此外,1个source可以指定多个channel,而1个sink只能接收来自1个channel的数据. 这里给出的是部署1套含1个

Flume配置案例

问题导读1.什么是flume2.flume的官方网站在哪里?3.flume有哪些术语?4.如何配置flume数据源码? 一.什么是Flume? flume 作为 cloudera 开发的实时日志收集系统,受到了业界的认可与广泛应用.Flume 初始的发行版本目前被统称为 Flume OG(original generation),属于 cloudera.但随着 FLume 功能的扩展,Flume OG 代码工程臃肿.核心组件设计不合理.核心配置不标准等缺点暴露出来,尤其是在 Flume OG 的

flume配置参数的意义

1.监控端口数据: flume启动: [[email protected] flume]$ bin/flume-ng agent --conf conf/ --name a1 --conf-file job/flume-telnet-logger.conf -Dflume.root.logger=INFO,console 参数说明: --conf conf/  :表示配置文件存储在conf/目录 --name a1 :表示给agent起名为a1 --conf-file job/flume-tel

flume配置参考

1 redis source,memory channel,json intercepter and file_roll sink配置例子 agent.sources = redis redis1 agent.channels = memory agent.sinks = fileSink agent.sources.redis.type = com.flumeng.plugins.source.RedisLPopSource agent.sources.redis.host = 192.168

Flume负载均衡配置

flume负载均衡配置 集群DNS配置如下: hadoop-maser 192.168.177.162 machine-0192.168.177.158 machine-1191.168.177.167 配置主Flume,在hadoop-maser机上.配置文件为loadbalance.properties. agent.sources=s1 agent.channels=c1 agent.sinks=k1 k2 agent.sinkgroups = g1 agent.sinkgroups.g1