Python爬虫入门【1】: CentOS环境安装

简介

你好,当你打开这个文档的时候,我知道,你想要的是什么! Python爬虫,如何快速的学会Python爬虫,是你最期待的事情,可是这个事情应该没有想象中的那么容易,况且你的编程底子还不一定好,这套课程,没有你想要的Python基础,没有变量,循环,数组等基础知识,因为我不想在那些你可以直接快速学会的地方,去浪费你的时间。

好了,这套课程是基于Python3.0 以上写的,操作系统我使用的是CentOS7+ 所以里面的好多内容可能和你的不一样,当然也会导致许多问题的解决和你的不同,所以有的问题,需要你自己百度或者FQ解决啦,祝你碰到N多的BUG。O(∩_∩)O

接下来的第一步是什么?

安装一个虚拟机,因为你的电脑99%是windows的,所以你需要一个软件叫做 VMware 然后,下载地址 在2018年5月10日这一天,我百度到的是

在这个网址里面有这款软件的下载和你懂的。

然后,我接着百度到了一个CentOS7的操作系统

软件下载之后的名字

准备工作做好了,接下来就是需要你需要完成的操作了

首先,安装VM这款软件,并且把它"pojie"掉.(当有一天,你赚到了钱,记得在去买一下这款软件,支持一下)

安装软件,全部使用默认选项即可,这个地方因为简单到不需要我写了,有问题大家可以自行解决。

安装完毕之前的最后一步

CentOS 7 安装

接下来就进入CentOS的安装了

安装过程中几个关键点位,要确定好

选择中文,下一步

红框的几个地方请注意

修改成下图的样子

OK,我们已经做好配置了,接下来点击下一步,在下一步,你只需要配置一个root账户的密码就可以了

接下来就是几分钟的等待了,跟你电脑配置有关系,时间不等。

安装之后,打开CentOS操作系统,会出现一个嘿嘿的DOS命令窗口,输入账户root和你刚刚设置的密码,进入没有问题,完美~代表你的操作系统已经安装好了

接下来,为了方便我们后面的操作,我们要给我们的虚拟机安装一个GUI交互界面(也就是像windows一样的视窗操作软件)

如果失败了,怎么办,百度“如何安装gnome图形界面程序” 想办法啃下来。

当出现这样子的一些图标的时候,你成功了

可能碰到的问题

好了,接下来说一下,你可能碰到的问题

  1. 你点击应用程序,里面找到一个叫做火狐浏览器的软件,然后打开,发现竟然无法上网?!
  2. 你发现竟然无法使用中文输入法?!nice 这个问题,自行解决,随便找找一堆解决方案。

好了,上面问题2解决了,那么解决一下问题1吧,这个问题首先确认一下你在一开始安装的时候,下面这个图配置的是否正确。

需要显示已连接

如果上图没有问题,那么99%的童鞋是可以上网的,那么还是有无法上网的,这时候,打开一个叫做终端的软件

输入代码

ping www.baidu.com

网络通畅

如果联网失败,敲入下图中的命令,如果联网成功,那么下面的内容,你直接跳过,去查看安装Python部分吧。

网络连接失败,修改方案

使用命令 ,注意,你的文件不一定叫ifcfg-ens33,可能叫 ifcgf-xxx 操作都一样

vi ifcfg-ens33

进入编辑页面 vi 的简单的操作

进入编辑状态请按键盘上的 i

退出编辑状态,请按键盘上的 ESC

然后输入 :wq 保存,退出,其他的命令用到在说吧。

图中有几个重点的地方,已经标注

首先看到你的文件中是否有 HWADDR=mac地址 【MAC地址获取见下图】

如果没有,自己手动加上,这里使用的DHCP连接网络的方式,所以,你需要把BOOTPROTO="dhcp" 如果需要修改成 "static" 也可以,不过需要配置一些其他的内容Python资源分享秋秋裙 784758214 ,内有安装包,学习视频资料,这里是Python学习者的聚集地,零基础,进阶,都欢迎

保存文件退出

获取MAC地址,注意图片中的标注

接下来 使用下面的命令重启网络服务

service network restart

在这里,你可能就重启成功了

如果失败,那么这个地方可能是一个非常大的坑了,网上的教程五花八门,但是大多数都是Copy一样的。

这里你可以按照各种教程去试一下,下面给大家几种常见的解决办法。

  1. 你自己电脑上面的两个服务没有开启

  1. CentOS操作系统中 NetworkManager 服务有冲突

这个需要在终端中解决

打开一个终端,输入如下命令

service NetworkManager stop  【回车】

chkconfig NetworkManager off   【回车】   

上面的命令是停止Network然后禁止开机启动,这样子在执行  service network restart  去尝试一下

安装Python

接下来就是我们的开发工具了,Python的安装

默认我们的CentOS已经给我们带了一个Python2

你可以直接使用

我们重新安装一下最新的Python3.0以上的版本,这里先安装一些基本的内容,CentOS使用 yum 安装程序

yum -y install zlib zlib-devel
yum -y install bzip2 bzip2-devel
yum -y install ncurses ncurses-devel
yum -y install readline readline-devel
yum -y install openssl openssl-devel
yum -y install openssl-static
yum -y install xz lzma xz-devel
yum -y install sqlite sqlite-devel
yum -y install gdbm gdbm-devel
yum -y install tk tk-devel

里面的 -y 是代表所有需要用户确认的地方选择yes不需要用户输入了

为了方便后面我们的Python3编译,还需要安装一个gcc编译器

yum -y install gcc

之后到python官网下载 https://www.python.org

终端运行以下命令

下载安装包

wget https://www.python.org/ftp/python/3.6.5/Python-3.6.5.tgz

解压下载好的Python-3.x.x.tgz包

tar -zxvf Python-3.6.5.tgz

进入解压后的目录,编译安装。

cd Python-3.6.5/
./configure --prefix=/usr/local/python3

make

    make

make install

make install

建立python3的软链

ln -s /usr/local/python3/bin/python3 /usr/bin/python3

OK到现在为止,你已经创建好了python3的环境了,在终端中尝试一下吧

接下来,你可能面临的一个问题就是安装setuptools和pip3的问题了,这个就留给大家自己解决去了。

最后输入一个 hello world 结束我们的1/100

print("hello,world")

原文地址:https://blog.51cto.com/14445003/2420868

时间: 2024-08-05 12:21:07

Python爬虫入门【1】: CentOS环境安装的相关文章

Python爬虫入门教程:博客园首页推荐博客排行的秘密

1. 前言 虽然博客园注册已经有五年多了,但是最近才正式开始在这里写博客.(进了博客园才知道这里面个个都是人才,说话又好听,超喜欢这里...)但是由于写的内容都是软件测试相关,热度一直不是很高.看到首页的推荐博客排行时,心里痒痒的,想想看看这些大佬究竟是写了什么文章这么受欢迎,可以被推荐.所以用Python抓取了这100位推荐博客,简单分析了每个博客的文章分类,阅读排行榜,评论排行榜及推荐排行榜,最后统计汇总并生成词云.正好这也算是一篇非常好的Python爬虫入门教程了. 2. 环境准备 2.1

转 Python爬虫入门二之爬虫基础了解

静觅 » Python爬虫入门二之爬虫基础了解 2.浏览网页的过程 在用户浏览网页的过程中,我们可能会看到许多好看的图片,比如 http://image.baidu.com/ ,我们会看到几张的图片以及百度搜索框,这个过程其实就是用户输入网址之后,经过DNS服务器,找到服务器主机,向服务器发出一个请求,服务器经过解析之后,发送给用户的浏览器 HTML.JS.CSS 等文件,浏览器解析出来,用户便可以看到形形色色的图片了. 因此,用户看到的网页实质是由 HTML 代码构成的,爬虫爬来的便是这些内容

转 Python爬虫入门一之综述

转自: http://cuiqingcai.com/927.html 静觅 » Python爬虫入门一之综述 首先爬虫是什么? 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本. 要学习Python爬虫,我们要学习的共有以下几点: Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy Python爬虫更高级的功能 1.Pyth

1.Python爬虫入门一之综述

要学习Python爬虫,我们要学习的共有以下几点: Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy Python爬虫更高级的功能 1.Python基础学习 首先,我们要用Python写爬虫,肯定要了解Python的基础吧,万丈高楼平地起,不能忘啦那地基,哈哈,那么我就分享一下自己曾经看过的一些Python教程,小伙伴们可以作为参考. 1) 慕课网Python教程 曾经有一些基础的语法是在慕课网上看的,上面附有一些

Python爬虫入门之Urllib库的高级用法

1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性. 首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化了,出现一个新的界面,实质上这个页面包含了许许多多的内容,这些内容也不是一次性就加载完成的,实质上是执行了好多次请求,一般是首先请求HTML文件,然后加载JS,CSS 等等,经过多次

Python爬虫进阶之Scrapy框架安装配置

Python爬虫进阶之Scrapy框架安装配置 初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1

Python爬虫入门 | 爬取豆瓣电影信息

这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源.看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬虫的大门啦~好啦,正式开始我们的第二节课<爬取豆瓣电影信息>吧!啦啦哩啦啦,都看黑板~1. 爬虫原理1.1 爬虫基本原理听了那么多的爬虫,到底什么是爬虫?爬虫又是如何工作的呢?我们先从"爬虫原理"说起.爬虫又称为网页蜘蛛,是一种程序或脚本.但重点在于:它能够按照一定的规则,自动

Python爬虫入门七之正则表达式

在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式! 1.了解正则表达式 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个"规则字符串",这个"规则字符串"用来表达对字符串的一种过滤逻辑. 正则表达式是用来匹配字符串非常强大的工具,在其他编程语言中同样有正则表达式的概念,Python同样不例外,利用了正则表达式,我

转 Python爬虫入门七之正则表达式

静觅 » Python爬虫入门七之正则表达式 1.了解正则表达式 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符.及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑. 正则表达式是用来匹配字符串非常强大的工具,在其他编程语言中同样有正则表达式的概念,Python同样不例外,利用了正则表达式,我们想要从返回的页面内容提取出我们想要的内容就易如反掌了. 正则表达式的大致匹配过程是:1.依次拿出表达式和文本中的字符比较,2.如果每一个

Python爬虫入门六之Cookie的使用

大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用. 为什么要使用Cookie呢? Cookie,指某些网站为了辨别用户身份.进行session跟踪而储存在用户本地终端上的数据(通常经过加密) 比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的.那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了. 在此之前呢,我们必须先介绍一个opener的概念. 1.Opener 当你获取一个