海量数据挖掘之中移动流量运营系统

---------------------------------------------------------------------------------------------------------------

[版权申明:本文系作者原创,转载请注明出处]

文章出处:http://blog.csdn.net/sdksdk0/article/details/51691862

作者:朱培   ID:sdksdk0

---------------------------------------------------------------------------------------------------------------

因为整个项目工程师非常庞大的,一方面由于整个开发流量非常繁琐,不可能通过一篇文章就可以说得清楚的,另一方面由于保密性,所以这里只分享其中的部分内容。首先会从整体架构等说起,通过本文的学习主要是进一步了解海量数据挖掘的框架流程,对数据采集流程、内容识别、知识库的建立以及行为轨迹增强有初步的了解,学会简单的url清洗以及能够开发出简单的分类MapReducer程序。当然,如果部分内容看不懂也没关系,毕竟这需要经验的积累,不要太急于求成,可以先查看我的其他文章!

一、项目背景介绍

1.1 项目背景

对于运营商来说,使用海量数据挖掘对客户移动互联网行为进行采集,分析,发现用户关注的内容,为开展营销提供号码支持。当然,也不局限于这些功能。例如一个用户在用手机看小说,那么肯定有一个url的网址啦,用户所有访问的网址,ip,时间戳,上下行流量,基站,网络模式,手机型号等一大串信息都会被记录下来并在运营商的的云端进行存储,这个数据量是非常非常大的。这个时候我们可以通过抓取到用户访问过的url和总流量,然后通过爬虫去分析用户浏览的这个网页是怎么样的一个网页,通过内容识别机制来找出这个网页的内容,例如一个用户在看的是新闻url,然后我们通过爬虫发现其访问的是新浪新闻,然后内容识别发现其经常访问关于娱乐新闻,明星八卦等,(基于流量和这类新闻的浏览次数来判读是否经常访问),那么这个时候我们就可以给其推送一些娱乐周边新闻等,只要用户点击去浏览了那么肯定会产生流量啊,那么运营商的营销的目的不就达成了么,哈哈哈!

该项目投产之后的收效为:

l用户响应率有三倍提升

?本次营销相关激励措施和前期开展的WAP PUSH营销相同;

?对比以往的群发响应率1%-3%,本次群发响应率效果明显,达到5.80%-10.21%,有近乎3倍的提升效果。

l访问用户活跃度高

?用户后有继续点击其他内容的行为,最高占比达到91.4%;

?产生二次点击行为的用户数的占比高,反映贴合用户需求的内容对用户的吸引力,用户粘性越高。

1.2 项目概况

在每个省单独一套系统,分为3个集群:数据采集集群(6-10个节点),行为轨迹增强处理集群(20-25节点),ETL、统计分析集群(35节点)

节点就是:PC服务器,放到机柜中,配置(4颗12核cpu,64G或128G内存,磁盘1T*8/12)

数据量,每天2T左右(10亿行以上),时间维度,地域维度。最长分析3个月的。每天增量不断增长。

项目组成员:

研发团队:数据采集(3-4人),行为轨迹增强(10人左右),ETL(20人左右,需要写web程序)

实施团队:部署环境,2-3个实施人员带上20多个开发人员

运维团队:

销售团队等

1.3 系统架构图

二、数据采集系统架构

既然前面说到了要抓取url的网址,那么我们如何来获得这些用户的数据呢!当然,普通人肯定是得不到运营商的数据啦,因为这些数据都是保密的,那么我要说的是运营商如何得到用户数据呢!

项目所处理的数据

硬件设备(网关,基站等)

其他系统(运营系统等)

业务日志:

HTTP日志/WAP日志/MMS日志/CONN日志/DNS日志

从移动运营商的核心网关中把需要的数据发送到ftp服务器上,然后我们这边就会提供ftp的客户端去采集ftp服务器的数据,然后处理之后过来进行分析。

三、内容识别模块

把url经过爬虫然后到识别系统,分析出网站名,主题,类别,(作者)等

将分类体系导入到数据库中,url json封装的内容信息。

大量的日志不断的产生,然后通过行为轨迹增强,通过一个mapreduce,

如果这个数据匹配到了,则将原始行+内容分析结果信息(从知识库来的数据)导出到增强日志。如果匹配不到的数据就输出到一个待爬清单中。

识别系统:自然语言处理SVM(实时识别),人工识别(人工一条条的去识别),模板识别(一个网页的内容的位置一般不会变,用xpath来定位到我们所需要查找的节点)

相信学过xml的应该都会使用xpath了,如果不会的话,可以查阅我这篇文章:http://blog.csdn.net/sdksdk0/article/details/51555090

在这个项目中庸xpath来做这个模板匹配:例如

对于一个网页的html页面来说,我们可以这样来匹配其标题,例如我们打开搜狐的html,我们可以看到他的这个网页标题是<title></title>的,所以我们对于这类网站就可以用xpath来定位这个title在哪里,然后去获取这title节点中内容

<site>
souhu.com
<site>
	<property>
		<name>movie_name</name>
		<xpath>/path/.../</xpath>
	</property>

</site>
</site>

当然了,使用xpath和xml去做这种模板匹配有一定的局限性,适用于一个结构非常清晰的网页,例如视频、小说、音乐等,对于那种奇奇怪怪的网友就不适用了。

所以总的来说,对于内容识别要采用多种方式去做,不要局限于一种,不同类型的网站最好有不同的解决方案。

我们使用自然语言处理来进行分析的时候还有问题就是,一个网页的内容太多了,svm分析有时候不能完全的识别到我们想要的内容,就像一条新闻,本来这个新闻的主标题才是中国网页的主要内容,而使用自然语言处理系统的话它可能会把新闻下面的广告读成了这个网页的主要内容了,所以这样的话就会有误差了。当然咯,自然语言分析还是很有用,那么为了更精确的识别照顾好网页的内容怎么办呢。好吧,那当然是最传统的人工读取了,由可爱的实习生们把这些网页一条条的浏览,然后记录这个网页的主要内容!(好吧,不要惊讶,移动就是这么干的)。然后读取大概10万个网页,这样的话就形成了一个规则库,这个就比自然语言处理和模板匹配的结果更加精确了。

四、知识库url挑选

两个知识库,一个规则库(人工分析的),还有一个实例库(自动分析系统)。

先把url进行规则分析,如果有则输出,没有没有则放到实例库,如果实例库也没有了,就放到待爬清单中。

先拿1T的样本数据,然后网址按流量汇总排序出来,总流量的前80%,总条数10万条。

因为只要挑选出来就可以了,不需要实时在运行的,所以只要一个job就可以了。

这里我们主要拿到一个url和总流量来进行分析和处理,其他更为复杂的情况这里就不分享了哦。

我们首先可以在eclipse总新建一个jav工程,导入各种hadoop/lib下面的jar包,或者直接新建一个mapRedecer工程也可以。

新建一个bean类:记得要继承一个Comparable接口。

package cn.tf.kpi;

public class FlowBean implements Comparable<FlowBean>{

	private String url;
	private long upflow;
	public String getUrl() {
		return url;
	}
	public void setUrl(String url) {
		this.url = url;
	}
	public long getUpflow() {
		return upflow;
	}
	public void setUpflow(long upflow) {
		this.upflow = upflow;
	}
	public FlowBean(String url, long upflow) {
		super();
		this.url = url;
		this.upflow = upflow;
	}
	public FlowBean() {
		super();
	}
	@Override
	public int compareTo(FlowBean o) {
		return (int) (o.getUpflow() - this.upflow) ;
	}
	@Override
	public String toString() {
		return "FlowBean [url=" + url + ", upflow=" + upflow + "]";
	}
}

然后写主方法:

其实这里和我之前写的那个用户流量分析系统有很多类似的地方。

package cn.tf.kpi;

import java.io.IOException;
import java.util.TreeSet;

import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import cn.tf.kpi.TopURL.TopURLMapper.TopURlReducer;

public class TopURL {

	public static class TopURLMapper extends
			Mapper<LongWritable, Text, Text, LongWritable> {

		private Text k = new Text();
		private LongWritable v = new LongWritable();

		@Override
		protected void map(LongWritable key, Text value, Context context)
				throws IOException, InterruptedException {

			String line = value.toString();
			String[] fields = StringUtils.split(line, "\t");
			try {
				String url = fields[26];

				long upFlow = Long.parseLong(fields[30]);

				k.set(url);
				v.set(upFlow);

				context.write(k, v);
			} catch (Exception e) {
				e.printStackTrace();
			}

		}

		public static class TopURlReducer extends
				Reducer<Text, LongWritable, Text, LongWritable> {

			private Text k = new Text();
			private LongWritable v = new LongWritable();

			TreeSet<FlowBean> urls = new TreeSet<FlowBean>();

			//全局流量和
			long globalFlowSum  =0;

			@Override
			protected void reduce(Text key, Iterable<LongWritable> values,
					Context context) throws IOException, InterruptedException {

				long count = 0;
				for (LongWritable v : values) {
					count += v.get();
				}

				globalFlowSum +=count;
				FlowBean bean = new FlowBean(key.toString(), count);
				urls.add(bean);
			}

			@Override
			protected void cleanup(Context context) throws IOException, InterruptedException {

				long tempSum=0;
				for(FlowBean bean:urls){
					//取前80%的
					if(tempSum/globalFlowSum<0.8){
					k.set(bean.getUrl());
					v.set(bean.getUpflow());
					context.write(k,v);

					tempSum+=bean.getUpflow();
					}else{
						return;
					}
				}
			}
		}
	}

	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
		Configuration conf = new Configuration();
		Job job = Job.getInstance();

		job.setJarByClass(TopURL.class);

		// 指定本job使用的mapper类
		job.setMapperClass(TopURLMapper.class);
		// 指定本job使用的reducer类
		job.setReducerClass(TopURlReducer.class);

		// 指定mapper输出的kv的数据类型
		job.setMapOutputKeyClass(Text.class);
		job.setMapOutputValueClass(LongWritable.class);

		// 指定reducer输出的kv数据类型
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(LongWritable.class);

		// 指定本job要处理的文件所在的路径
		FileInputFormat.setInputPaths(job, new Path(args[0]));
		// 指定本job输出的结果文件放在哪个路径
		FileOutputFormat.setOutputPath(job, new Path(args[1]));

		// 将本job向hadoop集群提交执行
		boolean res = job.waitForCompletion(true);

		System.exit(res ? 0 : 1);

	}

}

然后把这个工程打成一个jar包,命名为top.jar。存放到你指定的一个位置就可以了,我存放的位置是在/home/admin1/hadoop/lx/top.jar

现在启动hadoop集群服务,

把采集到的数据上传到hdfs的/topflow/data目录下,下载地址在文末贴出。(源数据下载地址:http://download.csdn.net/detail/sdksdk0/9551559)。把这个log.1文件上传你的hdfs目录中,这个log.1主要是几十万条采集到的用户流量的数据。

bin/hadoop fs -mkdir -p /topflow/data
bin/hadoop fs -put ../lx/log.1  /topflow/data

把jar包放到hadoop中执行:

bin/hadoop jar ../lx/top.jar  cn.tf.kpi.TopURL  /topflow/data   /topflow/output  

执行之后会见过系统的处理就可以选出url了。

内容如下:就是一个url网址+总流量大小,并且按照降序排列,所以我们只要拿到这个数据源的总流量最大的前80%的用户数据就可以了,然后就可以进行下一步的操作了。编译好的这个文件会存放在你的hdfs目录中,去查看一下就可以了。

然后你需要先准备一个mysql数据库,用于存放清洗好的数据,也就是我们把刚才得到的数据,是存放在hdfs的/topflow/output目录下的那个文件,把这个文件存到mysql数据库中,作为一个知识库。

在mysql数据中新建一个test数据库,然后建一个名字叫rule的表:

create database test;
use test;
create table rule(
  url  varchar(1024),
  info varchar(20) default 'complited'
)

然后需要导入数据,这里我直接使用sqoop来把hdfs中的数据导入到mysql中去,先去下载一个sqoop,

sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具

----实质就是将导入导出命令转换成mapreduce程序来实现。sqoop安装:安装在一台节点上就可以了。

首先下载好sqoop之后解压进入conf目录下,配置hadoop的路径,然后把mysql的驱动jar包复制一份放到sqoop的lib目录中。

在sqoop的conf目录下,修改sqoop-env.sh

export HADOOP_COMMON_HOME=/home/admin1/hadoop/hadoop-2.5.2
export HADOOP_MAPRED_HOME=/home/admin1/hadoop/hadoop-2.5.2

然后启动:进入sqoop的目录下,运行下面这个程序

bin/sqoop export --connect jdbc:mysql://ubuntu2:3306/test --username hive --password  a --table rule --export-dir /topflow/output --columns url --input-fields-terminated-by '\t'

然后就会把数据全部存入到mysql中,经过清洗之后,这里大概是6070条数据,在实际生产中的数据量可不仅仅只有这么一点点。

select *from rule;查看这个表里面的内容。

到这里,我们这个url知识库就建立好了,接下来就可以愉快的进行后续操作了。

五、用户行为轨迹增强

用户行为增强就是把原始的数据源来和这个知识库做匹配,如果有则把原来的数据+分析后的数据作为一个增强的模块,如果没有在这个知识库中匹配到,则放到待爬数据中。接下来演示的就是把原始数据(也就是前面提到的log.1)的数据与我们刚才存放到mysql中的六千多条数据进行匹配,若有,则输出到增强日至,若无则存放到待爬数据。

这个部分的内容其实是比较简单的,就是流程比较复杂一点。接下来继续在那个eclipse中新建3个类。

先把mysql的驱动包导入我们新建的这个工程,并build path一下。

这里写一个连接数据库的泪,因为我们要和数据库中的知识库做对比嘛,这是一个基础的jdbc连接类,这种很简单的我相信大街上随便一个人都会写的哈。这里就不再重复啰嗦啦!

package cn.tf.kpi;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.ResultSet;

import java.sql.Statement;

import java.util.HashMap;

public class DBLoader {

	public static void dbLoader(HashMap<String, String> ruleMap) {

		Connection conn = null;

		Statement st = null;

		ResultSet res = null;

		try {

			Class.forName("com.mysql.jdbc.Driver");

			conn = DriverManager.getConnection("jdbc:mysql://ubuntu2:3306/test", "hive", "a");

			st = conn.createStatement();

			res = st.executeQuery("select url,info from rule");

			while (res.next()) {

				ruleMap.put(res.getString(1), res.getString(2));

			}

		} catch (Exception e) {

			e.printStackTrace();

		} finally {

			try{

				if(res!=null){

					res.close();

				}

				if(st!=null){

					st.close();

				}

				if(conn!=null){

					conn.close();

				}
			}catch(Exception e){

				e.printStackTrace();

			}

		}

	}

	public static void main(String[] args) {

		DBLoader db = new DBLoader();

		HashMap<String, String> map = new HashMap<String,String>();

		db.dbLoader(map);

		System.out.println(map.size());

	}

}

接下来就是一个增强日志类:

package cn.tf.kpi;

import java.io.IOException;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.RecordWriter;

import org.apache.hadoop.mapreduce.TaskAttemptContext;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogEnhanceOutputFormat extends FileOutputFormat<Text, NullWritable>{

	@Override

	public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext context) throws IOException, InterruptedException {

		FileSystem	fs = FileSystem.get(context.getConfiguration());

		FSDataOutputStream tocrawlOut = fs.create(new Path("hdfs://ubuntu2:9000/topflow/tocrawl/url.list"));

		FSDataOutputStream enhancedOut = fs.create(new Path("hdfs://ubuntu2:9000/topflow/enhanced/enhanced.log"));

		return new LogEnhanceRecordWriter(tocrawlOut,enhancedOut);

	}

	public static class LogEnhanceRecordWriter extends RecordWriter<Text, NullWritable>{

		private FSDataOutputStream tocrawlOut;

		private FSDataOutputStream enhancedOut;

		public LogEnhanceRecordWriter(FSDataOutputStream tocrawlOut, FSDataOutputStream enhancedOut) {

			this.tocrawlOut = tocrawlOut;

			this.enhancedOut = enhancedOut;

		}

		@Override

		public void write(Text key, NullWritable value) throws IOException, InterruptedException {

			if(key.toString().contains("tocrawl")){

				//写入待爬清单目录(hdfs://)

				tocrawlOut.write(key.toString().getBytes());

			}else{

				//写入增强日志目录(hdfs://)

				enhancedOut.write(key.toString().getBytes());		

			}
		}

		@Override

		public void close(TaskAttemptContext context) throws IOException, InterruptedException {

			IOUtils.closeStream(enhancedOut);

			IOUtils.closeStream(tocrawlOut);

		}	

	}

}

最后把最重要的一个类写完就可以了;这里只要写一个map就可以了

package cn.tf.kpi;

import java.io.IOException;

import java.util.HashMap;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogEnhance {

	public static class LogEnhanceMapper extends Mapper<LongWritable, Text, Text, NullWritable> {

		private HashMap<String, String> contentMap = new HashMap<String, String>();

		@Override

		protected void setup(Context context) throws IOException, InterruptedException {

			// 加载整个内容识别知识库到内存中

			DBLoader.dbLoader(contentMap);

		}

		@Override

		protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

			String line = value.toString();

			String[] fields = StringUtils.split(line, "\t");

			try {

				// 抽取url字段,去匹配规则库获取url页面的内容识别信息
				String url = fields[26];

				String contentResult = contentMap.get(url);

				String result = null;

				// 如果知识库中没有这条url的内容识别信息,就只输出url字段到待爬清单

				if (StringUtils.isBlank(contentResult)) {

					result = url + "\t" + "tocrawl" + "\n";

				} else {

					// 在原始日志内容后面追加内容识别结果信息作为增强之后的输出

					result = line + "\t" + contentResult +"\n";

				}

				context.write(new Text(result), NullWritable.get());

			} catch (Exception e) {

				context.getCounter("malformed", "line").increment(1);

			}

		}

	}

	public static void main(String[] args) throws Exception {

		Configuration conf = new Configuration();

		Job job = Job.getInstance();

		job.setJarByClass(LogEnhance.class);

		// 指定本job使用的mapper类

		job.setMapperClass(LogEnhanceMapper.class);

		// 指定mapper输出的kv的数据类型

		job.setMapOutputKeyClass(Text.class);

		job.setMapOutputValueClass(NullWritable.class);

		// 指定reducer输出的kv数据类型

		job.setOutputKeyClass(Text.class);

		job.setOutputValueClass(NullWritable.class);

		// 指定采用自定义的outputformat

		job.setOutputFormatClass(LogEnhanceOutputFormat.class);

		// 指定本job要处理的文件所在的路径

		FileInputFormat.setInputPaths(job, new Path(args[0]));

		// 虽然自定义outputformat中已有输出目录,但是这里还是要设置一个目录用来输出_SUCCESS文件

		FileOutputFormat.setOutputPath(job, new Path(args[1]));

		// 将本job向hadoop集群提交执行

		boolean res = job.waitForCompletion(true);

		System.exit(res ? 0 : 1);

	}

}

写完之后发现这三个类内容好简单,有木有!

继续把这个工程达成jar包,命名为top1.jar,然后放到hadoop下面去运行:

bin/hadoop jar top.jar  cn.tf.kpi.LogEnhance  /topflow/data  /topflow/output1

然后去查看一个数据就可以了。

也可以到浏览器中查看:

到这里,就在于分享完毕了,按照我分享的这个流量一步步做,我估计要一两天的时间才可以完全做完这个部分!其实总的来说就是过程非常繁琐,不过也正符合我们的实际工作,要知道,我们实际工作中,远超乎这些繁琐流程,中间还会报各种奇奇怪怪的错,有非常多的细节要处理,如果没有耐心,估计都会疯掉,哈哈!

欢迎关注,欢迎在评论区留言!

数据源下载地址:http://download.csdn.net/detail/sdksdk0/9551559

时间: 2024-10-16 03:25:59

海量数据挖掘之中移动流量运营系统的相关文章

玩赚全民微商运营系统课程,火人带你玩转微信营销

哪里有人哪里就有商业,哪里就有盈利空间.据第三方统计70%的手机用户开通了个人微信,其年龄涵盖了小学生至老年人,各年龄阶层的人群.截止目前腾讯已拥有4亿的微信用户,7亿的qq用户.消费者才是企业追逐的目标,人的数量决定了财富的数量. 微信营销过程中您是否还在苦恼以下问题: 您企业的公众号是否运营半载粉丝寥寥无几? 您花费近万元打造的微信平台是否从来没有订单? 您的品牌知名度是否通过微信得到了提升? 您的微信平台建设后却不懂得怎么去推广? 如果找不到好的营销解决方案,只会造成重复走弯路.. 赶快来

短说整合运营系统深度分析:社区论坛、社交电商、知识付费三大模式

文章大致结构一.产品介绍二.竞品分析三.产品运用场景四.部分功能测试五.总结 概述本文探讨的目的是笔者在研究众多产品之后,想要做一个社交社区工具类产品的一个系列,恰好看到人人网回归社交,又正好在体验短说社区论坛系统,于是就有了这篇文章.?· 探讨产品在功能设计.交互.市场等方面的表现?· 探讨社区论坛类型的产品角度来剖析目前的互联网行情一.产品介绍说起短说整合运营系统,其实算是一个比较陌生的词,短说实际叫做OSX整合运营系统,取名"短说",寓意长话短说,浓缩精华,去繁存简.它的设计理念

(转)手把手教你自制微信公众号流量监控系统

手把手教你自制微信公众号流量监控系统 一.首先是使用的工具: 基于搜狗微信搜索的微信公众号爬虫接口.Flask.ZUI框架. 第一个接口也是我开发的,欢迎star哈~ 二.获取数据 使用第一个接口获取公众号数据~ 可以看到,公众号的一般信息已经拿到手. 现在,将其集成到我们的网站上: (嗯,UI比较简单....) 三.监控 还是使用第一个接口监控数据: 这里做了一个嵌套排序,可以按照阅读量排序. 集成到网站上:四.具体的文章流量 继承到网站: 如上图所示,既可以监控微信号“NUAA_1952”的

安装流量监控系统-NTOP:中文版

Linux/Centos安装ntop中文版 一:安装环境 yum install libpcap libpcap-devel libpng gdbm gdbm-devel glib libxml2-devel pango pango-devel gd dos2unix  libtool-ltdl libtool-ltdl-devel gcc libtool rrdtool-devel 检测下: yum install -y libpcap* freetype* libpng* gdbm* lib

海量数据挖掘——第1讲.MapReduce and PageRank

本栏目(数据挖掘)下海量数据挖掘专题是个人对Coursera公开课海量数据挖掘(2015)的学习心得与笔记.所有内容均来自Coursera公开课Mining Massive Datasets中Jure Leskovec, Anand Rajaraman以及Jeff Ullman老师的讲解.(https://class.coursera.org/mmds-002/lecture) 第1讲-------MapReduce and PageRank 一.Distributed File System

大数据实战:用户流量分析系统

本文是结合hadoop中的mapreduce来对用户数据进行分析,统计用户的手机号码.上行流量.下行流量.总流量的信息,同时可以按照总流量大小对用户进行分组排序等.是一个非常简洁易用的hadoop项目,主要用户进一步加强对MapReduce的理解及实际应用.文末提供源数据采集文件和系统源码. 本案例非常适合hadoop初级人员学习以及想入门大数据.云计算.数据分析等领域的朋友进行学习. 一.待分析的数据源 以下是一个待分析的文本文件,里面有非常多的用户浏览信息,保扩用户手机号码,上网时间,机器序

PHP学习笔记:php网络流量统计系统

 说明:代码来源<PHP和MySQL Web应用开发>一书,还有就是代码有些是经过修改的,经过我的测验全部都可以用. 这里面ip地址显示的正常的,我电脑是支持 ipv6 的. 本示例的数据库脚本 ~~~ 先执行 set names gbk;   (因为脚本中包含中文)再执行语句: source d:\test\Vote.sql; CREATE DATABASE IF NOT EXISTS FluxStat COLLATE 'gb2312_chinese_ci'; USE FluxStat; C

运营系统性能管理的重要性

运营系统性能管理的重要性 21世纪改变世界的两大文明,是改变人类发展的两大力量,分别是金融资本和互联网科技,一个代表阶级文明,一个代表技术文明,两者之间在互相影响衬托下推动了全世界互联网金融和物联网的发展与知识的共享和进步,成为世界发展的神经中枢纽带. 因此在这热门而存在竞争力的技术产业中,一切服务以快为胜,而运营服务的快在于支持运营系统的快速处理能力和承载能力,因此系统的"快"对于基础设施.架构设计.性能优化也起到至关重要作用,因此对于系统非功能性需求越来越重要,非功能需求等例如性能

网站流量统计系统 phpMyVisites

phpMyVisites是一个网站流量统计系统,它能够提供非常详细的统计报告和高级图形报表.phpMyVisites不是一个Apache log分析工具,它建有自己的log.它的特点包括: 安装部署:提供可视化的安装向导,并且使用简单只要把一段简单的Javascript代码添加到你网站的页面中就能够马上开始收集访问者的信息. 一个简洁,友好的界面可用来展示数据和帮助数据分析. 提供简洁,明了的图形分析报表. 安全:phpMyVisites能够最大限度地阻止入侵和外部攻击. 支持多网站统计 多用户