Fundebug累计处理1000万条错误事件!

摘要: 上线半年时间,Fundebug累计处理1000万条错误事件。10000000啊!

自从去年双11正式上线Fundebug已稳定运行半年时间,为600余个开发团队提供全栈JavaScript错误实时监控服务。目前,我们已经累计处理了1000万条错误事件,依靠自创的错误智能聚合算法,我们将这1000万条错误事件聚合为约1.9万个不同的错误。

根据初步统计,这些错误事件的分布基本上符合二八原理:少数用户的错误事件数占了错误事件总数的大部分;每个用户的少数错误重复出现的次数占了该用户所有错误事件数目的大部分。

事件个数Fundebug处理错误事件数统计2016-122017-012017-022017-032017-042017-0502.5M5M7.5M10M12.5Mhttps://fundebug.com2017-02-11事件个数: 21 210

更重要一点在于,借助于Fundebug,我们的用户几乎都发现了线上代码BUG。也许很多程序员会感到奇怪,我的代码怎么可能有BUG?其实这并不奇怪,因为:

  • 一些意想不到的边界条件(内存溢出,死循环,Null, Undefined);
  • 代码的运行环境(各种浏览器,各种手机)千变万化;
  • 网络环境复杂(云服务商,网络运营商,CDN提供商…)
  • 代码运行依赖的系统比如数据库(MySQL, Redis)偶尔抽风;
  • 峰值情况下网络超时,CPU和内存超负荷;
  • ……

其中一位Fundebug用户分享了一篇很有意思的博客 - 我是这样发现ISP劫持HTTP请求的,大家不妨参考一下。

还有一点,测试并不能完全消除这些问题。一方面,你不可能没完没了地写单元测试,另一方面,真实的代码运行环境是不可能完美复现的。

感兴趣的话,欢迎免费注册Fundebug试用!

版权声明:
转载时请注明作者Fundebug以及本文地址:
https://blog.fundebug.com/2017/05/23/fundebug-handle-10000000-events/
时间: 2024-10-18 13:16:29

Fundebug累计处理1000万条错误事件!的相关文章

QTreeView处理大量数据(使用1000万条数据,每次都只是部分刷新)

如何使QTreeView快速显示1000万条数据,并且内存占用量少呢?这个问题困扰我很久,在网上找了好多相关资料,都没有找到合理的解决方案,今天在这里把我的解决方案提供给朋友们,供大家相互学习. 我开始使用的QTreeWidget 控件来显示我的数据,发现该控件在显示10000行以下的数据还可以应付的过来,但超过10000条,就明显感觉到屏幕刷新就会有卡的现象,而且占据内存很大,虽然操作起来简单方便,但灵活性没有QTreeView强大.因为我要显示的数据量是非常大的,甚至过1000万,因此,采用

再送一波干货,测试2000线程并发下同时查询1000万条数据库表及索引优化

继上篇文章<绝对干货,教你4分钟插入1000万条数据到mysql数据库表,快快进来>发布后在博客园首页展示得到了挺多的阅读量,我这篇文章就是对上篇文章的千万级数据库表在高并发访问下如何进行测试访问 这篇文章的知识点如下: 1.如何自写几十行代码就能模拟测试高并发下访问千万级数据库表 2.比较高并发下(200次/秒,2000次/秒,10000次/秒)数据库的性能 3.比较千万级数据库在查询时加索引与不加索引的巨大差异(说实话,这个测试结果让我自己本人也很惊讶) 针对上篇文章插入的1000万条数据

1000万条用户名密码数据概览

一名安全研究员发布了一份包含1000万条记录的用户名.密码文件.原文可见: Today I Am Releasing Ten Million Passwords 下载下来看看: 确实是刚好有1000万条记录 $ wc -l 10-million-combos.txt 10000000 10-million-combos.txt 共有两列,分别是username.password $ head 10-million-combos.txt 0000 00000000 0000 00001 0000

Mysql慢查询开启和查看 ,存储过程批量插入1000万条记录进行慢查询测试

首先登陆进入Mysql命令行  执行sql      show variables like 'slow_query%';  结果为OFF 说明还未开启慢查询 执行sql     show variables like 'long_query_time';  可以看到具体的慢查询 ""时限" 我们先开启慢查询 执行sql set global slow_query_log='ON'; 这是再去查询一下(show variables like 'slow_query%';)发现

如何快速的将已知的1000万条数据插入到数据库中

首先,可以定义1个1000万次的循环,每次循环插入1条数据,当1000万次循环全部执行结束,则插入完成! 也可以使用1条INSERT语句插入多条数据,例如: INSERT INTO t_user (username, password, age, phone, email) VALUES ('user01', 'password01', 11, '13800138001', '[email protected]'), ('user02', 'password02', 12, '138001380

Oracle 快速插入1000万条数据的实现方式

1.使用dual配合connect by level create table BigTable as select rownum as id from dual connect by level <= 100000; 但是有connect by level有上限,如果超出上限,系统会报,"connect by level"内存不足,我试过1000000万数据可以,但是再多就不行了. 2. 使用xmltable,"CONNECT BY 操作内存不足,10g开始支持XML

1000万条有重复的字符串,找出重复数前10的字符串

输入的时候可以使用map来存储,然后将map里的数据转到vector里,按重复数从大到小输出10个即可. #include <iostream> #include <algorithm> #include <map> #include <string> #include <vector> using namespace std; map<string, int> mp; struct node { string s; int num;

因为文章写错两个字,冯东阳被淘宝索赔1000万

近日,自媒体人冯东阳在松松兄弟会群里发了一篇文章称:他在1月14日收到了法院传票,因为自己的一篇文章涉及到侵害淘宝的名誉权,被要求赔偿1000万.对于法院传票,要求必须在3月份出庭,这下可让冯东阳兄恼火了.没想到这篇文章给他带来了大麻烦. 然而事实已经是事实了,对于法院传票,要求必须在3月份出庭.而且迫于精神压力,冯东阳已离职!目前此次事件持续发酵,已经上了腾讯网头条. 视频https://v.qq.com/x/page/q0376jihggy.html (河南都市频道对报道了冯东阳此事) 事情

支持100+业务线、累计发布17万次|宜信容器云的A点与B点(分享实录)

宜信公司从2018年初开始建设容器云,至今,容器云的常用基本功能已经趋于完善,主要包括服务管理.应用商店.Nginx配置.存储管理.CI/CD.权限管理等,支持100+业务线.3500+的容器运行.伴随公司去VMware以及DevOps.微服务不断推进的背景,后续还会有更多的业务迁移到容器云上,容器云在宜信发挥着越来越重要的作用.本次分享主要介绍宜信容器云平台的背景.主要功能.落地实践及未来规划. 一.宜信容器云平台背景 宜信容器云平台的建设背景主要包括: 提高资源利用率.容器云建设之前,每台物