贩卖470余万条12306用户数据的人被抓了!

“首都网警”称,贩卖 470 余万条 12306 用户数据的人被抓了!

2018 年 12 月 28 日,北京市公安局网络安全保卫总队(以下简称网安总队)工作中发现,网传有人利用互联网贩卖 470 余万条疑似 12306 铁路订票网站的用户数据,而中国铁路总公司官方微博回应“网传信息不实,12306网站未发生用户信息泄露”。

获此情况后,网安总队与西城分局成立专案组开展工作。经查,一网络用户“deepscorpions”在网上贩卖疑似 12306 铁路订票网站的用户数据,包含 60 余万条用户注册信息和 410 余万条铁路乘客信息。经专案组网上侦查、溯源追踪,成功锁定犯罪嫌疑人为北京市西城区某科技有限公司员工陈某(男,25岁,河北省邢台市人),后于 2018 年 12 月 29 日在该公司所在地将其抓获归案。

经讯问,陈某供述 60 余万条用户注册信息,系其前期在网上非法购买所得,并非通过对 12306 官方网站技术入侵获取。其余 410 余万条铁路乘客信息,系其利用上述用户注册信息,通过第三方网络订票平台非法获取。

目前,嫌疑人陈某因涉嫌侵犯公民个人信息罪被西城分局刑事拘留。案件正在进一步审理中。

原文地址:https://www.cnblogs.com/chuangye95/p/10204550.html

时间: 2024-10-08 10:13:09

贩卖470余万条12306用户数据的人被抓了!的相关文章

Python看春运,万条拼车数据背后的春节迁徙地图

Python看春运,万条拼车数据背后的春节迁徙地图 今天是正月初九,春运返程也已过半.这篇文章,作者对北京.上海.广州.深圳.杭州等地 1万多条出行数据进行分析,得出了一些有意思的结论,并且绘制了这几个城市春运的迁移图.虽然数据在取样公平性上不能完全符合标准,但是思路还是值得大家学习参考的~ 目录 前言 统计结果 爬虫思路 统计思路 后记 前言 很早之前发过一篇关于某拼车平台爬虫的文章,因为工作比较忙,一直没有下文.最近年底稍微空了些,加上碰上春节返乡大潮,刚好再拿过来写一下数据分析的思路. 本

1000万条用户名密码数据概览

一名安全研究员发布了一份包含1000万条记录的用户名.密码文件.原文可见: Today I Am Releasing Ten Million Passwords 下载下来看看: 确实是刚好有1000万条记录 $ wc -l 10-million-combos.txt 10000000 10-million-combos.txt 共有两列,分别是username.password $ head 10-million-combos.txt 0000 00000000 0000 00001 0000

每天近百亿条用户数据,携程大数据高并发应用架构涅槃

互联网二次革命的移动互联网时代,如何吸引用户.留住用户并深入挖掘用户价值,在激烈的竞争中脱颖而出,是各大电商的重要课题.通过各类大数据对用户进行研究,以数据驱动产品是解决这个课题的主要手段,携程的大数据团队也由此应运而生;经过几年的努力,大数据的相关技术为业务带来了惊人的提升与帮助. 以基础大数据的用户意图服务为例,通过将广告和栏位的"千人一面"变为"千人千面",在提升用户便捷性,可用性,降低费力度的同时,其转化率也得到了数倍的提升,体现了大数据服务的真正价值. 在

60万12306用户信息暗网遭售卖?官方:第三方泄露

28日下午,网上有人发帖称,铁路12306平台数据疑似泄露,并在暗网上兜售60万帐号信息,价格仅20美元. 据称这份数据包括60万账户信息.410万联系人数据.记者随机测试了15条用户数据,部分用户账户信息正确. 28日晚,中国铁路发布辟谣微博称,网传信息不实. 29日早上,12306客服回复记者称,旅客使用的第三方购票平台属于非正规渠道,会存在泄露信息情况,建议旅客通过官方平台购票. 原文地址:https://www.cnblogs.com/chuangye95/p/10198420.html

JavaScript如何一次性展示几万条数据

有一位同事跟大家说他在网上看到一道面试题:"如果后台传给前端几万条数据,前端怎么渲染到页面上?",如何回答? 于是办公室沸腾了, 同事们讨论开了, 你一言我一语说出自己的方案. 有的说直接循环遍历生成html插到页面上:有的说应该用分页来处理:还有的说这个面试官是个白痴, 哪有后台传几万条数据给前端这种情况的:我仔细思考了一下,先不论后端到底会不会白痴到传几万条数据给前端,假如真碰到这种情况,那么如果前端获取到数据以后, 直接将数据转换成html字符串,通过DOM操作插入到页面,势必导

Java 线程池 +生产者消费者+MySQL读取300 万条数据

1.1需求 数据库300 万条用户数据 ,遍历获取所有用户, 各种组合关联, 获取到一个新的json ,存到redis 上. 1.2 难点 数据库比较多, 不可能单线程查询所有的数据到内存. 1.3解决办法 多线程读取, 生产者 每次获取200 条数据, 消费者去消费.(这里 主要是根据MySQL分页去获取下一个200 条数据) 1.4 代码 1.4.1 调用方法 /** * 线程启动 */ public void update() { //redis操作类 HashRedisUtil redi

(转)Python网络爬虫实战:世纪佳缘爬取近6万条数据

又是一年双十一了,不知道从什么时候开始,双十一从“光棍节”变成了“双十一购物狂欢节”,最后一个属于单身狗的节日也成功被攻陷,成为了情侣们送礼物秀恩爱的节日. 翻着安静到死寂的聊天列表,我忽然惊醒,不行,我们不能这样下去,光羡慕别人有什么用,我们要行动起来,去找自己的幸福!!! 我也想“谈不分手的恋爱” !!!内牛满面!!! 注册登陆一气呵成~ 筛选条件,嗯...性别女,年龄...18到24岁,身高嘛,无所谓啦,就按默认155-170吧,地区...嗯北京好,北京近一点,照片?那肯定要啊,必须的!!

QTreeView处理大量数据(使用1000万条数据,每次都只是部分刷新)

如何使QTreeView快速显示1000万条数据,并且内存占用量少呢?这个问题困扰我很久,在网上找了好多相关资料,都没有找到合理的解决方案,今天在这里把我的解决方案提供给朋友们,供大家相互学习. 我开始使用的QTreeWidget 控件来显示我的数据,发现该控件在显示10000行以下的数据还可以应付的过来,但超过10000条,就明显感觉到屏幕刷新就会有卡的现象,而且占据内存很大,虽然操作起来简单方便,但灵活性没有QTreeView强大.因为我要显示的数据量是非常大的,甚至过1000万,因此,采用

SqlBulkCopy类进行大数据(10000万条以上)插入测试

好多天没写博客了,刚刚毕业一个多月,在IT的路上真是迷茫啊! 关于上一篇博客中提到的,在进行批量数据插入数据库的时候可以通过给存储过程传递一个类型为Table的参数进行相关操作,在这个过程中本人没有进行效率的测试.后来查找发现可以通过SqlBulkCopy类进行大数据插入操作,本文就来介绍一个这个类的作用并做了相关的效率测试(与Insert语句进行对比). SqlBulkCopy只能向SqlServer表写入数据,该表既可以是同一个服务器上的也可以是远程服务器上的.当然要写入的数据即数据源不单单