casperjs模拟登陆https页面获取当前面地址后发现为about:blank问题排查

解决方案参考:https://github.com/n1k0/casperjs/issues/49#issuecomment-60430359

casper.wait(10000,function(){}),等待了10s后发现获取当前页面的地址的话,还是about:blank

但是我按照上面说的加上casperjs my.js --ignore-ssl-errors=yes 和 --ssl-protocol=any都不行,最后看里面有人也碰到了此情况。

casperjs --help后发现,根本就不支持--ignore-ssl-errors,--ssl-protocol这两个option,phantomjs里面才有

感觉是不是1.1.0-beta3这个版本的话,加上这两个参数也无效。因为人家毕竟还叫beta嘛,如果想解决此问题,建议可以考虑其他centeros下安装casperjs来运行你的程序或者直接用phantomjs开发。

phantomjs --ignore-ssl-errors=true --ssl-protocol=any phantomjs-csdn.js

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-20 04:58:19

casperjs模拟登陆https页面获取当前面地址后发现为about:blank问题排查的相关文章

PHP实现curl和snoopy类模拟登陆方法

Snoopy.class.php下载 方法/步骤 第一种:使用snoopy类实现模拟登陆 1.在网上下载一个Snoopy.class.php的文件   2.代码实现: <?php set_time_limit(0); require "Snoopy.class.php"; $snoopy=new Snoopy(); $snoopy->referer='你要模拟登陆的域名';//例如:http://www.baidu.com/ $snoopy->agent="

转载-解决使用httpClient 4.3.x登陆 https时的证书报错问题

今天在使用httpClient4.3.6模拟登陆https网站的时候出现了证书报错的问题,这是在开源中国社区里找到的可行的答案(原文链接:http://www.oschina.net/question/194048_135225?sort=time) 大概逻辑是自己实现了信任所有证书 import javax.net.ssl.SSLContext; import org.apache.http.conn.ssl.SSLConnectionSocketFactory; import org.apa

php爬虫(curl) 模拟登陆获取cookie,然后使用cookie查看个人中心

<!-- curl的高级使用 --> <?php //模拟登陆获取cookie保存到电脑 header("content-Type: text/html; charset=UTF-8"); /*$cookie_file = tempnam('d:/', 'cookie');*/ $cookie_file = 'd:/demo.txt'; $login_url="http://www.php-z.com/member.php?mod=logging&a

.net 获取https页面的信息 在iis7.5服务器上不管用

原文:.net 获取https页面的信息 在iis7.5服务器上不管用 让我纠结了一天多的问题,给大家看下,有相同情况的可以不用浪费时间了,本人当时找了好半天都没找到什么有用的信息,项目在本地没有问题,但部署在服务器后,获取不到https页面的信息,加入下面的代码就可以了,因为iis7.5的安全协议比较高的原因. 我的获取页面需要cookie,不需要的可以去掉: GET的方法: 1 /// <summary> 2 /// 获取URL访问的HTML内容 获取https 页面的 3 /// <

网络爬虫模拟登陆获取数据并解析实战(二)

目录 分析要获取的数据 程序的结构 构建封装数据的model 模拟登陆程序并解析数据 结果展示 分析要获取的数据 下面继续实战,写一个模拟登陆获取汽车之家,用户信息的程序.如果大家对模拟登陆获取数据不太了解,建议看完http://blog.csdn.net/qy20115549/article/details/52249232,我写的这篇含有抓包获取人人网数据的案例程序,研究透之后,再来看这个要轻松很多. 首先,大家打开汽车之家这个网站(http://i.autohome.com.cn/7741

模拟登陆百度并发帖

概述 用程序模拟提交表单登录百度. 意义 从实用意义上说,这种问题其实意义不大,并且也并不适合写成博客.百度网页在不断变化,而此博客内容却不会相应更新,无法保证内容的正确性. 从学习知识方面说,这种问题适合作为学习课题.这几天学了下python,感触良多.python确实比java灵活,语法也有许多漂亮的特性.比如多行字符串,raw字符串(无需转义的字符串),在java中都没有,好难受. 这种问题需要耐心,像破解密码一样,需要去尝试,去理解,去猜想,耗费时间和精力,性价比较低,有这功夫就不如多学

Scrapy基础(十四)————知乎模拟登陆

#-*-coding:utf-8 -*-__author__ = "ruoniao"__date__ = "2017/5/31 20:59" 之前我们通过爬取伯乐在线的文章,伯乐在线对爬取没有什么限制,这次爬取知乎,就有了爬取限制,首先就是登录限制:为破解限制,首先就是模拟登录 模拟登陆首先要明白的就是session和cookie机制: 简单的说(个人理解):  http是一种无状态的协议,为解决用户每次都需要输入密码登录的烦恼,也为了服务器能够记住每次请求的浏览器

Python模拟登陆

模拟人人登陆 #encoding=utf-8 import urllib2 import urllib import cookielib def renrenBrower(url,user,password): #登陆页面,能够通过抓包工具分析获得,如fiddler.wireshark login_page = "http://www.renren.com/PLogin.do" try: #获得一个cookieJar实例 cj = cookielib.CookieJar() #cook

Jsoup实现java模拟登陆

Jsoup实现java模拟登陆 1:如何获取cookies. 1.1:由于需要登录,故先模拟登陆时的那一个<form>,这里用map来装载变量名称,变量值. Map<String, String> map = new HashMap<String, String>(); map.put("username", username); map.put("pwd", md5.getMD5ofStr(password)); map.put