【爬虫】关于企业信用信息公示系统-加速乐最新反爬虫机制


( ̄▽ ̄)~*又得半夜修仙了,作为一个爬虫小白,花了3天时间写好的程序,才跑了一个月目标网站就更新了,是有点悲催,还是要只有一天的时间重构。

升级后网站的层次结构并没有太多变化,表面上是国家企业信用信息公示系统 的验证码又升级了。之前是 点按后滑动拼图方式:

现在的验证码主要是按顺序点击图片汉字验证码,但也不排除会出现以前的点按拖动验证码:

验证码的破解这里就不详细介绍了,需要的可以私信我们一起讨论研究下,详细可参考极验验证码破解-源码+破解手册,极验二代和三代验证码破解的方式基本都是一个套路的东西。

* * *

爬虫的过程
  • 破解加速乐最新反爬虫机制获取cookie
  • 传入cookie获取 gt 和 challenge 参数 (破解验证码必须的参数)
  • 破解验证码
  • 带上cookie,提交参数跳转下一层
  • 抓取数据,这就非常简单了
破解加速乐获取cookie

????网站更新前是不需要这个步骤的,这次重构代码的时间主要就花在这了。一开始我用 get 方式直接访问 http://www.gsxt.gov.cn/SearchItemCaptcha ,获取 gt 和 challenge 参数 ,但是却返回错误521,于是我发现不仅仅是这个接口,但是发现根本连首页都进不去,返回错误页面403 forbidden,而且细心发现返回的并不是正常的乱码而是一串js代码。

< script >
var x = "[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected][email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@@[email protected]@[email protected]@[email protected]@[email protected]".replace(/@*$/, "").split("@"),
y = "k a=r(){w(P.b||P.u){};k B,h=‘1=2.j|10|‘;B=n(+[[(+!+[])]+[([-~-~~~![]]+~~{}>>-~-~~~![])]]);k l=[‘Q‘,(!{}+[[], -~{}][~~![]]).p(-~[(-~{}<<-~{})]),‘3‘,[{}+[[], -[com.cn.chaomeng.utils.GsxtUtils] - 初始cookie密文:<script>var x="[email protected]@[email protected]@[email protected]@[email protected]@
[email protected]@[email protected]
[email protected]@[email protected]@[email protected]@
[email protected]@
[email protected]@[email protected]@[email protected]@[email protected]
[email protected]@[email protected][email protected]@
[email protected]@[email protected]@[email protected]@
[email protected]@[email protected]@[email protected]
[email protected]@[email protected]@[email protected]
[email protected]@[email protected]@[email protected]@[email protected]@@[email protected]@[email protected]@[email protected]@[email protected] ".replace(/@*$/,"").split("@"),y="k a = r() {
    w(P.b || P.u) {};
    k B,
    h = ‘1=2.j|10|‘;
    B = n( + [[( + !+[])] + [([ - ~ - ~~~ ! []] + ~~ {} >> -~ - ~~~ ! [])]]);
    k l = [‘Q‘, (!{} + [[], -~ {}][~~ ! []]).p( - ~ [( - ~ {} << -~ {})]), ‘3‘, [{} + [[], -~ {}][~~ ! []]][10].p(T - ~~~ ! [] - ~~~ ! [] + T), ‘%‘, [{} + [[], -~ {}][~~ ! []]][10].p(([ - ~ - ~~~ ! []] + ~~ {} >> -~ - ~~~ ! [])), ‘V‘, ( + {} + [[], -~ {}][~~ ! []]).p(15), ‘L‘, (15 + [] + [[]][( + [])]), ‘t‘, ([][~~ {}] + [] + []).p(y), ‘v‘, ( - ~ [] / ~~ ! [] + [[], -~ {}][~~ ! []]).p(J), ‘%e‘];
    C(k 8 = 10; 8 < l.K; 8++) {
        B.7()[8] = l[8]
    };
    B = B.11(‘‘);
    h += B;
    A(‘R.D=R.D.G(/[\\?|&]d-F/,\\‘\\‘)‘, I);
    W.o = (h + ‘;m=6, O-g-5 13:q:S x;E=/;‘);
};
c((r() {
    H {
        M !! P.4;
    }
    i(14) {
        M f;
    }
})()) {
    W.4(‘12‘, a, f);
}
9 {
    W.z(‘N‘, a);
}
",z=0,f=function(x,y){var a=0,b=0,c=0;x=x.split("");y=y||99;while((a=x.shift())&&(b=a.charCodeAt(0)-77.5))c=(Math.abs(b)<13?(b+48.5):parseInt(a,36))+y*c;return c},g=y.match(/\b\w+\b/g).sort(function(x,y){return f(x)-f(y)}).pop();while(f(g,++z)-x.length){};eval(y.replace(/\b\w+\b/g, function(y){return x[f(y,z)-1]}));</script>
~{}][~~![]]][10].p(T-~~~![]-~~~![]+T),‘%‘,[{}+[[], -~{}][~~![]]][10].p(([-~-~~~![]]+~~{}>>-~-~~~![])),‘V‘,(+{}+[[], -~{}][~~![]]).p(15),‘L‘,(15+[]+[[]][(+[])]),‘t‘,([][~~{}]+[]+[]).p(y),‘v‘,(-~[]/~~![]+[[], -~{}][~~![]]).p(J),‘%e‘];C(k 8=10;8<l.K;8++){B.7()[8]=l[8]};B=B.11(‘‘);h+=B;A(‘R.D=R.D.G(/[\\?|&]d-F/,\\‘\\‘)‘,I);W.o=(h+‘;m=6, O-g-5 13:q:S x;E=/;‘);};c((r(){H{M !!P.4;}i(14){M f;}})()){W.4(‘12‘,a,f);}9{W.z(‘N‘,a);}",
z = 0,
f = function(x, y) {
    var a = 0,
    b = 0,
    c = 0;
    x = x.split("");
    y = y || 99;
    while ((a = x.shift()) && (b = a.charCodeAt(0) - 77.5)) c = (Math.abs(b) < 13 ? (b + 48.5) : parseInt(a, 36)) + y * c;
    return c
},
g = y.match(/\b\w+\b/g).sort(function(x, y) {
    return f(x) - f(y)
}).pop();
while (f(g, ++z) - x.length) {};
eval(y.replace(/\b\w+\b/g,
function(y) {
    return x[f(y, z) - 1]
})); < /script>
/

到这里取cookie只传递了一个__jsluid 的COOKIES值。

__jsluid=8d61794e23c2bff4a5c997b272729fba;

Google 了一下,发现这是 加速乐的一个爬虫防护机制)。浏览器第二次请求的时候会带上 __jsluid cookies和JS解密计算出来的一个叫做__jsl_clearance的cookies值,只有这两个cookies验证匹配才认为是合法的访问身份。

这个确实花费了不少时间,知道了问题所在就简单多了,仔细分析上面的js代码就会发现我们要的东西就是这个方法:

eval(y.replace(/\b\w+\b/g,
function(y) {
    return x[f(y, z) - 1]
})

接下来就简单,用的是JAVA分析的 ,JAVA的js引擎还是挺好用的。稍微改造下js代码

        resHtml = "function getClearance(){" + resHtml+"};";
        resHtml = resHtml.replace("</script>", "");
        resHtml = resHtml.replace("eval", "return");
        resHtml = resHtml.replace("<script>", "");

改造后的代码js:

function getClearance() {
    var x = "[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected][email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@[email protected]@@[email protected]@[email protected]@[email protected]@[email protected]".replace(/@*$/, "").split("@"),
    y = "k a=r(){w(P.b||P.u){};k B,h=‘1=2.j|10|‘;B=n(+[[(+!+[])]+[([-~-~~~![]]+~~{}>>-~-~~~![])]]);k l=[‘Q‘,(!{}+[[], -~{}][~~![]]).p(-~[(-~{}<<-~{})]),‘3‘,[{}+[[], -~{}][~~![]]][10].p(T-~~~![]-~~~![]+T),‘%‘,[{}+[[], -~{}][~~![]]][10].p(([-~-~~~![]]+~~{}>>-~-~~~![])),‘V‘,(+{}+[[], -~{}][~~![]]).p(15),‘L‘,(15+[]+[[]][(+[])]),‘t‘,([][~~{}]+[]+[]).p(y),‘v‘,(-~[]/~~![]+[[], -~{}][~~![]]).p(J),‘%e‘];C(k 8=10;8<l.K;8++){B.7()[8]=l[8]};B=B.11(‘‘);h+=B;A(‘R.D=R.D.G(/[\\?|&]d-F/,\\‘\\‘)‘,I);W.o=(h+‘;m=6, O-g-5 13:q:S x;E=/;‘);};c((r(){H{M !!P.4;}i(14){M f;}})()){W.4(‘12‘,a,f);}9{W.z(‘N‘,a);}",
    z = 0,
    f = function(x, y) {
        var a = 0,
        b = 0,
        c = 0;
        x = x.split("");
        y = y || 99;
        while ((a = x.shift()) && (b = a.charCodeAt(0) - 77.5)) c = (Math.abs(b) < 13 ? (b + 48.5) : parseInt(a, 36)) + y * c;
        return c
    },
    g = y.match(/\b\w+\b/g).sort(function(x, y) {
        return f(x) - f(y)
    }).pop();
    while (f(g, ++z) - x.length) {};
    return (y.replace(/\b\w+\b/g,
    function(y) {
        return x[f(y, z) - 1]
    }));
};

接下来用js引擎执行这段代码。

       ScriptEngineManager manager = new ScriptEngineManager();
         ScriptEngine engine = manager.getEngineByName("js");

        engine.eval(resHtml);

        Invocable invocable = (Invocable) engine;

        String resJs = (String) invocable.invokeFunction("getClearance");

这样就可以得到这段js原来的样子了,并把没用的东西去掉,得到下面的js,我们会发现dc就是我们需要的东西,具体没用的东西怎么去掉就不贴上来了,只要是有window的代码去掉,会报错;dc就是我们要的东西,模仿上个步骤加上 return dc;就可以了;

var l = function() {
    var cd, dc = ‘__jsl_clearance=1515751840.935|0|‘;
    cd = Array( + [[( + !+[])] + [([ - ~ - ~~~ ! []] + ~~ {} >> -~ - ~~~ ! [])]]);
    var chips = [‘TAGGl‘, (!{} + [[], -~ {}][~~ ! []]).charAt( - ~ [( - ~ {} << -~ {})]), ‘w7ZgszEX‘, [{} + [[], -~ {}][~~ ! []]][0].charAt(3 - ~~~ ! [] - ~~~ ! [] + 3), ‘%‘, [{} + [[], -~ {}][~~ ! []]][0].charAt(([ - ~ - ~~~ ! []] + ~~ {} >> -~ - ~~~ ! [])), ‘B‘, ( + {} + [[], -~ {}][~~ ! []]).charAt(2), ‘86w‘, (2 + [] + [[]][( + [])]), ‘D‘, ([][~~ {}] + [] + []).charAt(4), ‘vHA‘, ( - ~ [] / ~~ ! [] + [[], -~ {}][~~ ! []]).charAt(6), ‘%3D‘];
    for (var i = 0; i < chips.length; i++) {
        cd.reverse()[i] = chips[i]
    };
    cd = cd.join(‘‘);
    dc += cd;
    return dc;
};

直接执行就行了:

        engine.eval(resJs);

        String learance= (String) invocable.invokeFunction("l");

执行完就是我们要的东西啦:

__jsl_clearance=1515751840.935|0|TAGGltw7ZgszEXf%2BN86wcDOvHAs%3D

将两段cookie拼接起来就是最终的cookie了:

__jsluid=8d61794e23c2bff4a5c997b272729fba;
__jsl_clearance=1515751840.935|0|TAGGltw7ZgszEXf%2BN86wcDOvHAs%3D;

接下来带上cookie访问刚刚的接口(http://www.gsxt.gov.cn/SearchItemCaptcha

),就返回200了,成功

{"challenge":"2f5ce96fd594370c49125a3264166df5","status":"ok","validate":"5be4f4ce721a7c7ad2469925800836a6"}

接下来就简单了。


注意
  • 首页返回的JS脚本里面有防止 PhantomJS 的机制:
while (window._phantom || window.__phantomas) {};

当发现是_phantom或者__phantomas后就直接进入死循环了。。

  • 最新发现,取上面步骤得到cookie访问的后续的页面会报302

    解决办法:用得到的cookie再次访问,并从response中取set-cookie,可以得到:

    JSESSIONID=AFDB40E58D5E6EC434E0584390629C03-n1:-1;
    Path=/;
    HttpOnlytlb_cookie=S172.16.12.67; path=/

    再拼接起来才是最终的cookie:

    __jsluid=8d61794e23c2bff4a5c997b272729fba;
    __jsl_clearance=1515751840.935|0|TAGGltw7ZgszEXf%2BN86wcDOvHAs%3D;HttpOnly;secure;
    JSESSIONID=AFDB40E58D5E6EC434E0584390629C03-n1:-1; Path=/;
    HttpOnlytlb_cookie=S172.16.12.67; path=/

    建议将cookie缓存,2小时更新一次就可以了

原文地址:https://www.cnblogs.com/dadaxin/p/8288178.html

时间: 2024-11-08 12:23:44

【爬虫】关于企业信用信息公示系统-加速乐最新反爬虫机制的相关文章

全国企业信用信息公示系统 查公司信息

https://www.sgs.gov.cn/notice/home

微信上线“企业信用查询”帮你轻松识别“老赖”企业

生意场上最怕的是那种长期或经常赖账不还的企业,现在好了,深圳微信“城市服务”上线的一项“企业信用查询”能够帮你轻松识别“老赖”企业.市民打开微信点击“我”—“钱包”—“城市服务”,选择所在城市,进入“政务办事”板块即可看到“企业信用查询”. 深圳信用查询可以选择分类查询,从企业 查询.年度报告.异常名录.行政处罚.被执行人等5个方向查询企业信用信息,全貌了解交易对象的信用情况,从而提高风险防范能力.通过“企业信用查询”服 务,市民可以很便捷地使用微信查询企业信用数据,涉及登记.监管.资质认证.诉

php爬虫抓取信息及反爬虫相关

58爬虫了百姓,赶集和58互爬,最后各种信息相同,都是爬虫后的数据库调用,潜规则啊,几家独大还暗中各种攻击,赶驴网的幽默事例我不想多评价.这个时代是砸.钱*养.钱的时代,各种姚晨杨幂葛优,各种地铁公车广告,各种卫视广告,铺天盖地~~~ 来谈php爬虫抓取信息~~ php爬虫首推Curl函数了,先来认识下它. 0x01.curl扩展的安装: 1.确保php子文件夹ext里面有php_curl.dll(一般都有的,一般配置时候会设置环境变量的) 2.将php.ini里面的;extension=php

网站反爬虫策略

反爬虫策略,表面上看似乎跟WEB系统优化没有关系,经过分析,发现该策略是可以归到WEB性能优化的系列之中. 通过分析apache日志发现,某系统40%的带宽和服务器资源都消耗在爬虫上,如果除去10%-15%搜索引擎的爬虫,做好反爬虫策略,能节省20%-25%的资源,其实是变向优化了web系统. 一.爬虫请求与正常用户请求的区别 爬虫请求是类似httpClient的机制或curl,wget的命令,用户请求一般走浏览器. 区别:爬虫请求一般不会执行页面里的异步JavaScript操作,而用户请求则执

网站反爬虫

因为搜索引擎的流行,网络爬虫已经成了很普及网络技术,除了专门做搜索的Google,Yahoo,微软,百度以外,几乎每个大型门户网站都有自己的搜索引擎,大大小小叫得出来名字得就几十种,还有各种不知名的几千几万种,对于一个内容型驱动的网站来说,受到网络爬虫的光顾是不可避免的. 一些智能的搜索引擎爬虫的爬取频率比较合理,对网站资源消耗比较少,但是很多糟糕的网络爬虫,对网页爬取能力很差,经常并发几十上百个请求循环重复抓取,这种爬虫对中小型网站往往是毁灭性打击,特别是一些缺乏爬虫编写经验的程序员写出来的爬

爬虫与反爬虫

转自:https://mp.weixin.qq.com/s/-w-yC6PCdTOpfKS8HZEleA 前言 爬虫与反爬虫,是一个很不阳光的行业. 这里说的不阳光,有两个含义. 第一是,这个行业是隐藏在地下的,一般很少被曝光出来.很多公司对外都不会宣称自己有爬虫团队,甚至隐瞒自己有反爬虫团队的事实.这可能是出于公司战略角度来看的,与技术无关. 第二是,这个行业并不是一个很积极向上的行业.很多人在这个行业摸爬滚打了多年,积攒了大量的经验,但是悲哀的发现,这些经验很难兑换成闪光的简历.面试的时候,

2015第42周一爬虫与反爬虫

一般爬虫要考虑的问题 之前尝试了request和cheerio实现的简单抓取数据用例,真的很初级,真正的爬虫且不说Google.百度等商用爬虫,即便是一个开源爬虫也要考虑很多东西,比如nodejs的开源爬虫neocrawler: 抓取网页并进行结构化解析,提取关键字后索引入库,防止网页重复抓取: 抓取利用JS产生内容的网页: 重试容错机制,失败后详细记录: 预设cookie,解决登陆后才能抓取内容问题: 限制并发数和集成代理IP功能,避免被原网站屏蔽: 分布式抓取提升效率. 网站反爬虫常用方法

互联网网站的反爬虫策略浅析

因为搜索引擎的流行,网络爬虫已经成了很普及网络技术,除了专门做搜索的Google,Yahoo,微软,百度以外,几乎每个大型门户网站都有自己的搜索引擎,大大小小叫得出来名字得就几十种,还有各种不知名的几千几万种,对于一个内容型驱动的网站来说,受到网络爬虫的光顾是不可避免的. 一些智能的搜索引擎爬虫的爬取频率比较合理,对网站资源消耗比较少,但是很多糟糕的网络爬虫,对网页爬取能力很差,经常并发几十上百个请求循环重复抓取,这种爬虫对中小型网站往往是毁灭性打击,特别是一些缺乏爬虫编写经验的程序员写出来的爬

反击“猫眼电影”网站的反爬虫策略

0×01 前言 前两天在百家号上看到一篇名为<反击爬虫,前端工程师的脑洞可以有多大?>的文章,文章从多方面结合实际情况列举了包括猫眼电影.美团.去哪儿等大型电商网站的反爬虫机制.的确,如文章所说,对于一张网页,我们往往希望它是结构良好,内容清晰的,这样搜索引擎才能准确地认知它:而反过来,又有一些情景,我们不希望内容能被轻易获取,比方说电商网站的交易额,高等学校网站的题目等.因为这些内容,往往是一个产品的生命线,必须做到有效地保护.这就是爬虫与反爬虫这一话题的由来.本文就以做的较好的"