推广项目清洗旧数据

1、背景

  数据初次清洗完成后,在做任务的过程中数据会不断衰减。当把初次清洗的数据后续衰减后,再次以做任务的方式清洗(做任务成功就代表数据可用)发现数据又可用了。由此推测部分数据可能有个冷却时间,当冷却时间过后又可以做任务,针对这种分析结果设计了旧数据循环清洗的功能。

2、设计方案

2.1、每10天的数据维护到一张历史表,例如:his_cookie_t2019082,his_cookie_t2019083分别代表2019-08-11至2019-08-20和2019-08-21至2019-08-31的数据;

2.2、每10以上将所有历史表数据按照关键字段去重后插入到初次清洗表cookie_clean_t;

2.3、正常清洗数据存储符合的数据到cookie_succ_t;

2.4、将初次清洗符合的数据(cookie_succ_t)和系统正常运营的数据(cookie_used_t)关联删除清洗符合的数据(cookie_succ_t)中重复数据;

2.5、分配符合的数据(cookie_succ_t)去做任务;

2.6、机器人做任务成功的数据uuid存储到redis;

2.7、从redis提取出来的数据插入到系统正常运营的数据(cookie_used_t)重复使用;

原文地址:https://www.cnblogs.com/xx0829/p/11566834.html

时间: 2025-01-04 17:58:43

推广项目清洗旧数据的相关文章

推广项目难点之数据随机分发

序言: 经过三个大版本迭代,每个大版本包含多个小版本的优化迭代! 背景: 每个订单分发成百上万个数据,可以多次分发,每个订单分发的数据不能重复,并且分发的数据要随机! V1.0版本: 1.记录订单ID和分发数据ID: 2.给订单ID分发数据前首先查看分发了哪些数据ID,分发的数据ID不会重复分发: 3.给订单ID分发非重复数据ID的时候采用SQL语句的随机函数: 线上问题: 每天有2000以上的订单,总共分发数据达到600多万,即每天记录订单ID和数据ID的量达到600多万条,数据存储量有20多

推广项目之服务器忘续费

推广项目架构体系不断完善已经发展到3台云服务器和105台拨号服务器,其中2台云服务器和71台拨号服务器同时支持老版架构项目的运营和新版架构项目的测试.2台云服务器是每个月底续费,71台拨号服务器分两个时间段提前两天续费,十一假期的提前休息导致了云服务器的漏续费. 推广项目整个平台的开发和维护由两个人组成,我负责项目的开发和部署,另一个朋友负责服务器的购买和环境搭建.一时的疏忽在10.1号凌晨00:45暴露出问题,当时我还在做着美梦,突然接到运营后台奔溃的电话,此时才想到服务器没续费.打了好几个电

django之创建第4-3个项目-访问list数据

1.index <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>django之创建第4-2个项目</title> </head> <body> <h2>访问list数据,用索引获取list内的数:{{test.0}}</h2> <!--模板 变量用变量

Storm项目:流数据监控1《设计文档…

该文档为实实在在的原创文档,转载请注明作者及出处. 类型 详细 备注 2 该文档为原创模拟项目:流数据监控<1>文档<流数据监控设计文档>,相继会给出流数据监控<2>文档<流数据监控代码解析>及其他文档 2  该部分有源码(熬夜写出来的哦) CSDN中相应项目CODE链接:戳这里     相关描述 2  有任何其他想法,可以邮件[email protected] 2 文档及相关资料下载请到个人360云盘http://yunpan.cn/QGf2GDaRFpc

十五周 项目1 工资数据的输入

/* 输入员工工资1000-10000之间,并按从大到小输出*/ #include <iostream> using namespace std; int main( ) { double salarys[500]; int n=0; double t; while(cin>>salarys[n]) { n++; //从cin流读取数据 } //将n名职工的工资排序后输出 for(int i=0; i<n; i++) for(int j=0; j<n-1; j++) {

zabbix 清理旧数据

zabbix 清理旧数据 #!/bin/bash User=user Passwd=passwd Date=`date -d $(date -d "-90 day" +%Y%m%d) +%s` #取90天之前的时间戳 $(which mysql) -u${User} -p${Passwd}  -S /tmp/mysql.sock -e " use zabbix; DELETE FROM history WHERE 'clock' < $Date; optimize ta

Foxmail如何导入旧数据【7.1版本以上】

工作中很多人使用Foxmail集成个人邮箱,由于各种原因,需要将数据从一台电脑上转移到另一台电脑上,这就牵涉到如何在Foxmail当中导入旧数据,经过一番废寝忘食的研究,小编找到了非常简单的方法,在这里和大家分享一下.

转移,清洗,同步数据

最近看了看公司的导入,清洗,同步数据.想自己也实现下 首先用SqlBulkCopy批量导入,然后用Partition by对要删除的数据进行分组,然后删除ID>1的数据.同步数据就是对源数据进行查询,然后批量更新目标数据. 我用MVC实现了下,代码实现如下: 前台代码 @{ Layout = null; } <html xmlns="http://www.w3.org/1999/xhtml"> <head> <title>数据同步</ti

统计两组数据的交集和补集(新旧数据的差异比较算法)遍历一次

旧数据A = {}新数据B = {} 新增项:B - A = { x | x∈B且x∉A}删除项:A - B = { x | x∈A且x∉B}共有项:B ∩ A = { x | x∈B且x∈A} import java.io.BufferedReader; import java.io.Closeable; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; im