python3.7与pyspider的坑

网络上安装pyspider的坑有很多,但都不如我今天的大,困扰了我几天,终于解决了

Traceback (most recent call last):
  File "/ffk_learn/software/Python-3.7.0/ffk_py/bin/pyspider", line 7, in <module>
    from pyspider.run import main
  File "/ffk_learn/software/Python-3.7.0/ffk_py/lib/python3.7/site-packages/pyspider/run.py", line 231
    async=True, get_object=False, no_input=False):
        ^
SyntaxError: invalid syntax

一直抱着个错误,后来才发现,是因为async从python3.7开始不能用作参数名了,将所有脚本里面的async换一个名字即可,当然最好还是要pyspider的大佬更新下pyspider.脚本不多,一共两个脚本

1 ffk_py/lib/python3.7/site-packages/pyspider/run.py

2 ffk_py/lib/python3.7/site-packages/pyspider/fetcher/tornado_fetcher.py 

ValueError: Invalid configuration: - Deprecated option ‘domaincontroller‘: use ‘http_authenticator

安装完爬虫框架pyspider之后,使用pyspider all 命令,输入http://localhost:5000运行就出现上述错误

原因是因为WsgiDAV发布了版本 pre-release 3.x。

解决方法如下:

在安装包中找到pyspider的资源包,然后找到webui文件里面的webdav.py文件打开,修改第209行即可。

‘domaincontroller‘: NeedAuthController(app),

修改为:

‘http_authenticator‘:{
        ‘HTTPAuthenticator‘:NeedAuthController(app),
    },

然后再执行pyspider all就能够通过http://localhost:5000打开页面了。

原文地址:https://www.cnblogs.com/liugp/p/10859237.html

时间: 2024-10-03 07:57:17

python3.7与pyspider的坑的相关文章

Mac下搭建Python3+PyCharm++PyQt5遇到的坑

我的Mac上什么也没有安装,建议的安装顺序: 1.如果没有Xcode,那么安装Xcode.AppStore经常连不上,下载不成功 2.安装homeBrew 3.通过homeBrew安装pyenv.pyenv用于多版本的python管理.Mac上有自带python2.7,网上说卸载python2.7是作死,所以不要卸载. 4.通过pyenv安装python3,坑: 1.可能需要FQ 2.网络影响很大,多试几次,我尝试了十几次吧,每次需要十几分钟.逢山开路,遇水搭桥,报错了就google看是什么错

Python3网络爬虫实战-10、爬虫框架的安装:PySpider、Scrapy

我们直接用 Requests.Selenium 等库写爬虫,如果爬取量不是太大,速度要求不高,是完全可以满足需求的.但是写多了会发现其内部许多代码和组件是可以复用的,如果我们把这些组件抽离出来,将各个功能模块化,就慢慢会形成一个框架雏形,久而久之,爬虫框架就诞生了. 利用框架我们可以不用再去关心某些功能的具体实现,只需要去关心爬取逻辑即可.有了它们,可以大大简化代码量,而且架构也会变得清晰,爬取效率也会高许多.所以如果对爬虫有一定基础,上手框架是一种好的选择. 本书主要介绍的爬虫框架有PySpi

关于 pyspider Web预览界面太小的解决方法

本人最近在学习pyspider时,遇到Web预览界面太小而无法很好的进行开发,于是在网上搜索解决方法. 准备: css代码: body{margin:0;padding:0;height:100%;overflow:hidden}.warning{color:#f0ad4e}.error{color:#d9534f}#control{z-index:9999;min-width:760px;width:100%;height:35px;position:fixed;left:0;right:0;

python3解码utf-8明文

如果遇到 '\\xe4\\xb8\\xad\\xe5\\x9b\\xbd' 这样的utf-8明文字符串,并且不是在代码里,而是从别的地方获取的,无法更改,就需要特殊的解码方式 在python2中,可以直接用decode("string_escape")解决,但是python3中str类型无法decode,那么怎么办呢? 有两种方法,第一种来自stackoverflow https://stackoverflow.com/questions/26311277/evaluate-utf-8

利用Scrapy爬取所有知乎用户详细信息并存至MongoDB

欢迎大家关注腾讯云技术社区-博客园官方主页,我们将持续在博客园为大家推荐技术精品文章哦~ 作者 :崔庆才 本节分享一下爬取知乎用户所有用户信息的 Scrapy 爬虫实战. 本节目标 本节要实现的内容有: 从一个大V用户开始,通过递归抓取粉丝列表和关注列表,实现知乎所有用户的详细信息的抓取. 将抓取到的结果存储到 MongoDB,并进行去重操作. 思路分析 我们都知道每个人都有关注列表和粉丝列表,尤其对于大V来说,粉丝和关注尤其更多. 如果我们从一个大V开始,首先可以获取他的个人信息,然后我们获取

Python 操作 MySQL 的正确姿势

欢迎大家关注腾讯云技术社区-博客园官方主页,我们将持续在博客园为大家推荐技术精品文章哦~ 作者:邵建永 使用Python进行MySQL的库主要有三个,Python-MySQL(更熟悉的名字可能是MySQLdb),PyMySQL和SQLAlchemy. Python-MySQL资格最老,核心由C语言打造,接口精炼,性能最棒,缺点是环境依赖较多,安装复杂,近两年已停止更新,只支持Python2,不支持Python3. PyMySQL为替代Python-MySQL而生,纯python打造,接口与Pyt

Python库大全,建议收藏留用!

学Python,想必大家都是从爬虫开始的吧.毕竟网上类似的资源很丰富,开源项目也非常多. Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 当我们在浏览器中输入一个url后回车,后台会发生什么? 简单来说这段过程发生了以下四个步骤: 1.查找域名对应的IP地址. 2.向IP对应的服务器发送请求. 3.服务器响应请求,发回网页内容. 4.浏览器解析网页内容. 那么学习爬虫需要掌握哪些库呢? 通用: 1.   urllib -网络库(stdlib). 2.   requests -网络库

win10上 安装python环境遭遇OSError: raw write()

前文提到在python代码中发现总是执行出错,确又不是自己代码问题的bug,原来是win10的问题,windows搞开发真的需要很大的耐心,有兴趣的可以参考这个来处理:python3遇上win10的坑 这次又遇到pip安装包报OSError,该怎么处理呢? pip install requestsOSError: raw write() returned invalid length 134 (should have been between 0 and 92) 其实也简单,一条命令搞定,看好了

pyspider 启动错误遇到的一些坑

https://blog.csdn.net/SiHann/article/details/88239892 突然接到一个项目是关于pyspider,遇到了一些小坑,百度一下发现并没有很好的解决所以研究了一下.我所使用的python版本是3.6.8,因为pyspider是对pip有版本要求的,所以自动升级一下. 升级pip•# pip install –upgrade pip 一切配置好之后,就在CMD中运行 pyspider all 来看能否跑起来.这是成功的样子,说明可以了. 不过路上谁能不遇