六、Kafka 用户日志上报实时统计之分析与设计

一、项目整体概述

  • 简述项目的背景

背景:
用户行迹
企业运营

  • 分析项目的目的

通过对项目的分析,可以初步得到以下目的:

•实时掌握用户动态

•根据实时统计结果,适度推广

•统计分析效果,快速合理的调整

二、Producer 模块分析

  • 分析生产数据来源

在用户上报日志中,每条日志记录代表用户的一次活动状态,示例数据如下:

121.40.174.237 yx12345 [21/July/2015 13:25:45 +0000] chrome

appid_5 "http://www.***.cn/sort/channel/2085.html"

示例数据所包含的信息量,如下图所示:

  • Flume 到 Kafka 流程分析

数据源生产流程分析,如下图所示:

三、Consumer 模块分析

  • 消费数据来源分析

消费数据源统计的KPI指标,如下图所示:

  • Kafka 到 Storm 流程分析

数据源消费流程分析,如下图所示:

四、项目整体设计

1.项目详细设计流程

项目详细设计流程,如下图所示:

2.KPI 指标设计

KPI 指标设计,如下图所示:

本节我们项目进行了整体分析,并指导大家去分析 Kakfa 的 Producer 模块和 Consumer 模块,以及帮助大家去设计项目的开发流程等知识,应该掌握以下知识:

•项目的背景和目的

•分析 Producer 模块和 Consumer 模块

•项目的整体开发流程

•KPI 指标的设计

原文地址:https://www.cnblogs.com/pony1223/p/9781788.html

时间: 2024-10-10 13:06:09

六、Kafka 用户日志上报实时统计之分析与设计的相关文章

五、Kafka 用户日志上报实时统计之 应用概述

一.kafka 回顾 1.简介 Kafka 的业务 业务场景: 解除耦合 增加冗余 提高可扩展性 Buffering 异步通信 2.介绍 Kafka 的应用场景 Push Message Website Tracking 日志收集中心 3.实时统计平台搭建注意事项 实时统计平台搭建注意事项: HA特性 核心文件配置 启动步骤 集群演示 二.项目简要 简述项目整体流程 整体流程预览如下图所示: 数据生产介绍 数据源生产介绍,如下图所示: 数据消费介绍 数据源消费介绍,如下图所示: 三.Kafka

七、Kafka 用户日志上报实时统计之编码实践

一.数据生产实现 1.配置数据生产模块 项目基础配置所包含的内容,如下所示: •项目工程的文件配置 •集群连接信息配置 •开发演示 2.实现 Flume 到 Kafka 模块 实现 Flume 到 Kafka 模块所包含的内容,如下所示: •Flume 集群信息配置 •数据收集 •数据收集演示 二.数据消费实现 1.配置数据消费模块 配置数据消费模块信息所包含的内容,如下所示: •Storm 集群信息配置 •依赖文件配置 •操作演示 2.实现 Kafka 到 Storm 模块 实现 Kafka

Kafka项目实战-用户日志上报实时统计之应用概述

1.概述 本课程的视频教程地址:<Kafka实战项目之应用概述> 本课程是通过一个用户实时上报日志来展开的,通过介绍 Kafka 的业务和应用场景,并带着大家搭建本 Kafka 项目的实战开发环境.下面我们来看看本课程有哪些课时,如下图所示: 接下来,我们开始第一课时的学习:<Kafka 回顾>. 2.内容 2.1 Kafka 回顾 本课时简述 Kafka 平台部署的注意事项,以及 Kafka 在企业中的业务场景和应用场景.让大家了解 Kafka 在企业中的使用. 本课时主要包含以

基于storm,kafka,mysql的实时统计系统

公司对客户开放多个系统,运营人员想要了解客户使用各个系统的情况,在此之前,数据平台团队已经建设好了统一的Kafka消息通道. 为了保证架构能够满足业务可能的扩张后的性能要求,选用storm来处理各个应用系统上传到kafka中的埋点数据并在Mysql中汇聚. 埋点数据上报的格式为json,会上报类似如下的数据 { "account": "001", "accountName": "旺财宝", "subaccount&q

Flume+Kafka+Storm+Redis构建大数据实时处理系统:实时统计网站PV、UV+展示

[TOC] 1 大数据处理的常用方法 前面在我的另一篇文章中<大数据采集.清洗.处理:使用MapReduce进行离线数据分析完整案例>中已经有提及到,这里依然给出下面的图示: 前面给出的那篇文章是基于MapReduce的离线数据分析案例,其通过对网站产生的用户访问日志进行处理并分析出该网站在某天的PV.UV等数据,对应上面的图示,其走的就是离线处理的数据处理方式,而这里即将要介绍的是另外一条路线的数据处理方式,即基于Storm的在线处理,在下面给出的完整案例中,我们将会完成下面的几项工作: 1

Spark 2.x企业级大数据项目实战(实时统计、离线分析和实时ETL)

Spark 2.x企业级大数据项目实战(实时统计.离线分析和实时ETL)全套课程下载:https://pan.baidu.com/s/1mje6bAoLLPrxUIrM-C2VMg 提取码: 9n1x 本门课程来源于一线生产项目, 所有代码都是在现网大数据集群上稳定运行, 拒绝Demo.课程涵盖了离线分析.实时分析绝大部分的场景,通过三个实际生产项目教授如何优雅地集成Hadoop.Spark.HBase.Kafka.Redis.MySQL等相关大数据技术,并实际落地 . 本门课程全程实操,不用担

Elasticsearch是一个分布式可扩展的实时搜索和分析引擎,elasticsearch安装配置及中文分词

http://fuxiaopang.gitbooks.io/learnelasticsearch/content/  (中文) 在Elasticsearch中,文档术语一种类型(type),各种各样的类型存在于一个索引中.你也可以通过类比传统的关系数据库得到一些大致的相似之处: 关系数据库 ⇒ 数据库 ⇒ 表 ⇒ 行 ⇒ 列(Columns) Elasticsearch ⇒ 索引 ⇒ 类型 ⇒ 文档 ⇒ 字段(Fields)一个Elasticsearch集群可以包含多个索引(数据库),也就是说其

蚂蚁金服分布式链路跟踪组件 SOFATracer 数据上报机制和源码分析 | 剖析

2019新春支付宝红包技术大揭秘在线峰会将于03-07日开始,点击这里报名届时即可参与大牛互动. SOFAScalable Open Financial Architecture 是蚂蚁金服自主研发的金融级分布式中间件,包含了构建金融级云原生架构所需的各个组件,是在金融场景里锤炼出来的最佳实践.SOFATracer 是一个用于分布式系统调用跟踪的组件,通过统一的 TraceId 将调用链路中的各种网络调用情况以日志的方式记录下来,以达到透视化网络调用的目的,这些链路数据可用于故障的快速发现,服务

大数据学习之Storm实时统计网站访问量案例35

案例一:统计网站访问量(实时统计)   实时流式计算框架:storm 1)spout 数据源,接入数据源 本地文件如下 编写spout程序: package pvcount; import java.io.BufferedReader; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.io.InputStreamReader;