屏蔽网站

1. 使用【360安全卫士】->【安全防护中心】->【信任与阻止】->【阻止的网站】

不足:http://www.baidu.com/具有反屏蔽的功能,使用这种方法无法进行屏蔽 ;

2. 修改hosts文件,具体怎么修改自行谷歌

不足:使用FQ代理仍然可以访问被屏蔽的网站

3. 使用广告屏蔽插件,例如【adb】、【广告终结者】

这个是终极方法:我使用的是广告终结者,通过自定义语法规则添加屏蔽。

语法规则中,我们需要着重注意两点:

  1. 网址开头要去掉http://
  2. 需要使用##来定义要屏蔽的内容。

下图是我的屏蔽列表:

4. 使用Tampermoney插件进行屏蔽

这种方法还没有尝试,但会更有趣一点!!

时间: 2024-09-30 21:57:46

屏蔽网站的相关文章

如何屏蔽某个特定的网站

如何屏蔽某个特定的网 对于网站的屏蔽,可以下载软件来屏蔽,也可以用系统里面的hosts文件来屏蔽,下面说说比较简单的--用hosts来屏蔽网站. 1.在windows下面: 进入C盘windows/system32/drivers/etc文件夹 使用管理员打开记事本,在hosts中加入如下内容 127.0.0.1 空格 要屏蔽网址的域名(不需要http://了) 如下图所示: 输入 127.0.0.1 www.baidu.com 退出保存即可. 重启浏览器用百度搜索就会出现如下错误了,即屏蔽了百

JavaScript屏蔽类

四.屏蔽浏览器右上角“最小化”“最大化”“关闭”键 或者使用全屏打开页面 注:在body标签里加上onbeforeunload="javascript:return false"//使不能关闭窗口 五.屏蔽F5键 六.屏蔽IE后退按钮 在你链接的时候用www.82676666.com 七.屏蔽主窗口滚动条 在body标签里加上style="overflow-y:hidden" 八.屏蔽拷屏,不断地清空剪贴板 在body标签里加上 九.屏蔽网站的打印功能 十.屏蔽IE

如何快速入侵一个网站

首先,观察指定网站. 入侵指定网站是需要条件的: 要先观察这个网站是动态还是静态的. 首先介绍下什么样站点可以入侵:我认为必须是动态的网站 如ASP.PHP. JSP等代码编写的站点 如果是静态的(.htm或html),一般是不会成功的. 如果要入侵的目标网站是动态的,就可以利用动态网站的漏洞进行入侵. Quote: 以下是入侵网站常用方法: 1.上传漏洞 如果看到:选择你要上传的文件 [重新上传]或者出现"请登陆后使用",80%就有漏洞了! 有时上传不一定会成功,这是因为Cookie

最详细的网站改版SEO优化指南:如何让排名不降反升

我知道,网站改版很是让人头疼.首先,这个过程需要很长时间还有大量工作要做,并且通常结果不会如你的预期.其次,改版确实有破坏之前为 SEO 所做努力的风险. 但不要因为通常网站改版带来排名下降就认为这是必然发生的.本指南,我们将着眼于采取一些步骤来确保让改版后的网站 SEO 情况更好,而非更糟. 在我们承诺开始网站改版之前,有一个问题你必须有一个明确的,肯定的的答案. 你的网站真的需要改版吗? 众所周知, 网页设计趋势变化很快, Web 2.0, 视差技术 , HTML 5 -不可能并且也没必要每

JavaScript其他屏蔽

JavaScript屏蔽IE后退按钮 在你链接的时候用 JavaScript屏蔽主窗口滚动条 在body标签里加上 style="overflow-y:hidden" JavaScript屏蔽拷屏,不断地清空剪贴板http://www.82676666.com 在body标签里加上 JavaScript屏蔽网站的打印功能 JavaScript屏蔽IE6.0 图片上自动出现的保存图标 方法一: 方法二: JavaScript屏蔽页中所有的script

网站SEO基础优化技巧之二:robots.txt的写法

第一:什么是robots.txt? 这是一个文本文件,是搜索引擎爬行网页要查看的第一个文件,你可以告诉搜索引擎哪些文件可以被查看,哪些禁止.当搜索机器人(也叫搜索蜘蛛)访问一个站点时,它首先会检查根目录是否存在robots.txt,如果有就确定抓取范围,没有就按链接顺序抓取. 第二:robots.txt有什么用 为何需要用robots.txt这个文件来告诉搜索机器人不要爬行我们的部分网页,比如:后台管理文件.程序脚本.附件.数据库文件.编码文件.样式表文件.模板文件.导航图片和背景图片等等.说到

如何设置网站的robots.txt

做过网站优化的朋友都知道,搜索引擎蜘蛛爬行抓取网站时首先会去访问根目录下的robots.txt文件,如果robots文件存在,则会根据robots文件内设置的规则进行爬行抓取,如果文件不存在则会顺着首页进行抓取,那么robots文件的工作原理是什么呢?如何对robots.txt文件进行设置. robots.txt是一个纯文本的文件,文件的名字必须全部小写,并且放置在网站的根目录下面,通过文件中的规则声明网站哪些内容不想被搜索引擎蜘蛛抓取收录,或者指定某个搜索引擎不能收录robots.txt也叫做

日更第6期-2015-1-29-如何科学地使用因特网-第一讲-总之先爬墙

哟哟,我又来日更了啊!O(∩_∩)O哈哈~不过,其实是隔了两天,不过比起上次,是要好了不少. 先说个好消息吧!我1月31日就要放假啦,然后就可以回家啦. 然后,回家之后,我就要正式的日更啦!现在为止我可是一直在隐藏实力哦.我要从几天一更进化为一天几更. 先试试一夜七次...... 恩,说点正经的:我接下来会更新些什么内容. 第一部分,OpenFrameworks的使用,即OpenFrameworks系列教程,里面包括example的解释,tutorial的 翻译,api的详解以及最新例子的展示.

关于hosts

hosts表的作用是可以改DNS,当我们设置了www.baidu.com 指向127.0.0.1的时候,再在浏览器输入www.baidu.com就会转向127.0.0.1而不是去访问百度.这个对于配置VS调试很有用.在工作中,常常遇到过要用域名来进行调试,这是hosts表就可以发挥它巨大的作用了. 另外 Hosts的位置一般是在 c:\windows\system32\drivers\etc,如果发现没有,可以查看下是否设置了为 隐藏文件 / 隐藏受保护的操作系统文件(打开我的电脑,依次点击[工