偷情网站被黑 无隐私的互联网下如何保护自己

         用户隐私信息被盗,似乎是自互联网诞生以来,一直盘旋在头顶挥散不去的阴影——最为普及的Windows系统自身存在的各种问题,网站被黑、数据被窃事件层出不穷。即使目前是目前最为火爆的移动互联网,安卓系统的病毒应用及各种堵之不及的漏洞,让人心塞。再加上并不称得上是万无一失的云服务,互联网的辉煌光环下,是用户隐私无情地赤裸裸地暴露于大众视线中。

近段时间,偷情网站被黑、魅族Flyme云服务的混乱等,让用户隐私问题再度站在舆论的风口浪尖上。面对严峻的形势,作为普通用户的我们,究竟该如何为自己穿上厚厚的铠甲,切实地保护好我们的个人隐私信息?

大恐惧!个人隐私成透明

也不知道究竟是得罪了哪位黑客大神,全球最著名的偷情网站Ashley Madison被“黑”地体无完肤。8月19日和8月21日,Ashley Madison先后两次遭遇黑客团队Impact Team的袭击。第一批被盗数据的压缩包大小为9.7G,包含众多用户的密码。第二次袭击更是直接导致3700万用户的个人资料泄露,除了用户的裸照、性癖好、银行卡信息和家庭住址之外,还包括全套的网站系统和App源代码,以及CEO的全部商业邮件。

一时之间,凡是在此网站上登陆过的用户都变得风声鹤唳,唯恐会对自己的生活造成影响,结果自然也是很多用户收到敲诈邮件,一时之间闹得沸沸扬扬。而在国内,魅族Flyme系统也出现用户隐私泄露事故。很多网友在魅族官方社区反映自己的通讯录、短信、通话记录、甚至便签等内容都同步过来很多陌生信息,疑似用户隐私遭泄露。

再加上此前苹果iCloud的好莱坞明星“***门”、国内数千万条开房信息泄露等极其严重的事件,用户个人隐私已经近乎透明,带给用户极大恐惧。毫不客气地说,目前用户的个人隐私信息就在那里,只要黑客想动,就有极大可能窃取。如果没有泄露,只能说的运气较好……

保护自己 从细节做起

在说不定什么时候自己就会成为网络红人的当下,我们一定要注意保护个人隐私。最简单的,就是不在不法网站注册。因为他们往往是黑客垂涎的目标,很容易就会被窃取,进而成为生活被骚扰的源头。拒绝互联网上的“黄赌毒”,是保护个人隐私的简单手段。

而那些正规网站,往往也会记录用户所有的信心和个人在互联网上的活动轨迹——淘宝大数据就是这么来的,浏览过一些商品,就会“贴心”地推送更多。我们所要做的,就是开启浏览器的反追踪功能,拒绝自己的信息被网站记录。即使是在移动浏览器上,也要养成开启“无痕浏览”功能的习惯。同时,养成经常清除Cookies、缓存文件等的习惯,有备无患。

此外,在网站注册信息时,一定不能过多暴露个人信息。只需将最基本的信息注册即可,不可太过详细。在移动智能终端上,要学会分辨应用的优劣,来历不明或者强行下载的应用,一定要拒绝安装。

总的来说,要想在互联网上保护个人隐私信息,用户能做的只能是小心再小心。但再怎么做,用户也始终是如履薄冰地在互联网上“厮混”。最终决定权真的不在用户手中,用户再怎么小心也总会有疏忽之处的。

互联网企业需遵守职业道德 技术为最强辅助

因此,我们不能寄希望于黑客的一时心软,而是要让互联网企业真正具有能抵抗黑客的能力。而在这方面,技术自然是最强辅助。虽然“魔高一尺道高一丈、道高一尺魔高一丈”的结果可随意变化,但互联网企业作为保护用户个人隐私的“门户”,必须能将技术磨练地能抵抗绝大多数黑客的侵袭。真的得罪大神级别的黑客,也只能自认倒霉。

此外,互联网企业需要遵守职业道德,绝不能做“监守自盗”,损害用户个人隐私的事。即使用户个人隐私再怎么“值钱”,也要明白自身的守护意义所在。只有将职业道德和技术结合起来,用户个人隐私才能得到最大程度的保护。(科技新发现 康斯坦丁/文)

本文如需转载,请联系QQ:102927545 ,并注明出处

科技新发现官方微信公众号:kejxfx

时间: 2024-12-28 10:05:59

偷情网站被黑 无隐私的互联网下如何保护自己的相关文章

在这个“无隐私”时代,如何避免成为一个透明人?

你的个人隐私,除了你自己没人能保护. 在我们享受互联网所带来的便利时,信息安全已经逐渐成为一大困扰. 在大数据时代,各种互联网产品逐渐把收集用户数据作为最重要的商业模式,通过不断收集.存储.浏览你的行为信息,甚至可以勾勒出你的兴趣爱好.健康状况甚至家庭成员等个人隐私信息. 如果你不愿意做一个束手就擒的人,还是可以采取一些行动. 本文我们邀请了真格被投企业青藤云安全的安全技术总监来谈谈,如何在这个“无隐私”时代,避免成为一个透明人? *本文作者:青藤云安全安全技术总监孙维伯 <真相>是真格基金推

要学会冷静面对网站被黑

在这个水深火热的互联网战场上,很多站长都遇到同行业的恶意攻击,黑客入侵等等安全性受到威胁的问题吧.小编当然也不例外,做优化两年多,间间断断的也与黑客斗争了两年多,从最初的手无足策到现在的淡然处之,就让小编教你如何去冷静的对网站被黑吧. 首先,我们都知道,遇到了网站被黑,第一时间就是去先把别人恶意嵌入的代码什么的去掉,其次再来慢慢的寻找服务器或者空间的漏洞,来填补这些漏洞防止下一次再被攻击,而如何去寻找你服务器的漏洞呢,这就要查看黑客是如何进入到你的网站之中的,每一个服务器都会有一个网站的日志,一

网站被黑

记一次真实的网站被黑经历 https://www.cnblogs.com/smallSevens/p/9221002.html 前言 距离上次被DDOS攻击已经有10天左右的时间,距离上上次已经记不起具体那一天了,每一次都这么不了了只.然而近期一次相对持久的攻击,我觉得有必要静下心来,分享一下被黑的那段经历. 在叙述经历之前,先简单的介绍一下服务器配置情况: ECS 1核2G内存1MB带宽,Linux系统 RDS 2核240MB内存,最大连接数60 Redis 256MB共享实例,搬家之后没用到

公司网站被黑应该怎么处理?

许多公司网站被黑被进犯,首要牵扯到的便是网站的开发言语,包含了代码言语,以及数据库言语,现在大多数网站都是运用的PHP,JAVA,.net言语开发,数据库运用的是mysql,oracle等数据库,那么网站被进犯了该怎样办?运营一个网站,总被进犯是时有发生的,特别一些公司网站,以及个人建站,都是没有专职的安全技能人员保护,导致网站常常被进犯,常常被跳转到其他网站,乃至有些网站都被挂马,网站主页标题也被重复篡改,没有专业的安全技能保护,面临这样的问题只能是干着急,没有什么好办法.那么咱们SINE安全

秦绪文:网站被黑的判断、应对及防御

网站安全是一直是我们做网站的重中之重,网站服务是否稳定,对用户.站方和搜索引擎来说都非常重要.目前国内网站的安全问题十分严峻,众多网站由第三方代建,维护人员缺乏足够的知识,大量的网站都存在不同程度的安全和管理漏洞. 对于我们站长而言网站安全一直就是站长的六大天敌之一,我操作过的网站也有被黑的经历,也深深的体会到因为网站被黑而带来的后果的严重性,对于小站而言虽然被黑不会有太大的损失,但对于大型站点来说就不容小视了,比如导致用户资料泄露,甚至个人信息被拿来买卖等,因此网站安全绝对是网站运营的一个重要

判断网站被黑表现以及解决方法

在我们对一个网站优化维护的过程中,网站安全是一直是我们做网站的重中之重,网站服务是否稳定,对用户.站方和搜索引擎来说都非常重要.深圳鹏程医院灰指甲科 目前国内网站的安全问题十分严峻,众多网站由第三方代建,维护人员缺乏足够的知识,大量的网站都存在不同程度的安全和管理漏洞. 对于我们站长而言,网站安全一直就是站长的六大天敌之一,我操作过的网站也有被黑的经历,也深深的体会到因为网站被黑而带来的后果的严重性. 对于小站而言虽然被黑不会有太大的损失,但对于大型站点来说就不容小视了,比如导致用户资料泄露,甚

个人总结:网站被黑有哪些表现形式

[导读]站长们都知道,新站刚建设不久,经常会出现网站被黑的情况,张玉淦博客前几个月也被黑,页面底部挂了很多垃圾链接,这些链接是通过script来完成,自己也不知道要从哪里删除,后来还是之前一个同事帮忙处理掉,我相信很多站长也有相同经历,那么,网站被黑到底有哪几种表现呢? 网站被黑的几种表现形式: 1. 挂链接 即所谓的黑链,大多会设置成用户用浏览器打开页面看不到,但搜索引擎的蜘蛛程序抓取的时候可以抓到,这是黑客们获取大量高权重的单向链接手段,以此牟利. 此类情况站长们不注意的话很难发现.说明下隐

为了打击网站被黑作弊行为,360搜索上线悟空算法2.0

我们在搜索浏览网页的时候,经常会出现正常网页跳转至含有色情,博彩等信息的恶意站点上去.这样严重影响到了用户的搜索体验,为了打击此类行为,360搜索正式上线了:"悟空算法2.0" 网站被黑是一种较为常见的现象,很多人通过黑客手段代码劫持,对正常的站点进行了恶意行为,现在这种现象更加的明显,这次上线的悟空算法在公告中显示:能更加准确快速地识别各种网站被黑客攻击的行为,降低恶意网站在搜索引擎中的不良展现和对用户的影响,严厉打击此类针对360搜索的作弊行为. 同时360搜索页提供了多种查杀工具

robots.txt防止向黑客泄露网站的后台和隐私

为了不让搜索引擎索引网站的后台页面或其它隐私页面,我们将这些路径在robots.txt文件中禁用了.但矛盾的是,robots.txt文件任何人都可以访问,包括黑客.为了禁止搜索引擎,我们把隐私泄露给了黑客. robots.txt干什么的? robots.txt基本上每个网站都用,而且放到了网站的根目录下,任何人都可以直接输入路径打开并查看里面的内容,如http://www.cnblogs.com/robots.txt.该文件用于告诉搜索引擎,哪些页面可以去抓取,哪些页面不要抓取. robots.