抓取一个网站的所有网址链接

作者QQ:231469242

关键字:爬虫,网址抓取,python

测试

url=http://db.yaozh.com/

import requests,bs4,re
url="http://db.yaozh.com/"

def getLinks(url):
    res = requests.get(url)
    soup = bs4.BeautifulSoup(res.text,"lxml")
    links = []

    for link in soup.findAll(‘a‘, attrs={‘href‘: re.compile("^http://")}):
        links.append(link.get(‘href‘))

    return links

list_links=getLinks(url)
print( getLinks(url) )

测试

url=http://www.yaozh.com

网址共121个

[‘http://db.yaozh.com‘, ‘http://www.yaozh.com/zhihui‘, ‘http://s.yaozh.com‘, ‘http://news.yaozh.com‘, ‘http://star.yaozh.com‘, ‘http://club.yaozh.com/‘, ‘http://edu.yaozh.com/‘, ‘http://bbs.yaozh.com‘, ‘http://www.35yao.com/‘, ‘http://top.yaozh.com/‘, ‘http://www.yaozh.com/‘, ‘http://news.yaozh.com‘, ‘http://db.yaozh.com‘, ‘http://www.yaozh.com/zhihui‘, ‘http://s.yaozh.com‘, ‘http://bbs.yaozh.com‘, ‘http://club.yaozh.com/‘, ‘http://edu.yaozh.com/‘, ‘http://star.yaozh.com/‘, ‘http://top.yaozh.com/‘, ‘http://db.yaozh.com/Zhuanti/zhuanti_20160721?source=www&name=index_slide‘, ‘http://bbs.yaozh.com/thread-260886-1-1.html?source=www&name=index_slide‘, ‘http://edu.yaozh.com/Course/84.html?source=www&name=index_slide‘, ‘http://bbs.yaozh.com/thread-262781-1-1.html?source=www&name=index_slide‘, ‘http://db.yaozh.com/pqf?source=www&position=index_newdb‘, ‘http://db.yaozh.com/orangebook?source=www&position=index_newdb‘, ‘http://db.yaozh.com/qxzhuce?source=www&position=index_newdb‘, ‘http://db.yaozh.com/yfpw?source=www&name=index_newdb‘, ‘http://db.yaozh.com/orangebook?source=www&name=long_banner‘, ‘http://news.yaozh.com/Detail/index/id/16689.html‘, ‘http://s.yaozh.com/Article/index?id=48?source=www&name=long_banner‘, ‘http://bbs.yaozh.com/thread-262329-1-1.html?source=www&name=long_banner‘, ‘http://bbs.yaozh.com/thread-216363-1-1.html‘, ‘http://s.yaozh.com/3832‘, ‘http://s.yaozh.com/3122‘, ‘http://s.yaozh.com/1389‘, ‘http://s.yaozh.com/1952‘, ‘http://s.yaozh.com/4043‘, ‘http://s.yaozh.com/4058‘, ‘http://s.yaozh.com/3858‘, ‘http://s.yaozh.com/1392‘, ‘http://db.yaozh.com?source=www&name=long_banner‘, ‘http://db.yaozh.com/app?source=www&name=db_left‘, ‘http://news.yaozh.com/archive/12393.html‘, ‘http://news.yaozh.com/archive/12275.html‘, ‘http://news.yaozh.com/archive/12218.html‘, ‘http://news.yaozh.com/archive/12138.html‘, ‘http://news.yaozh.com/archive/11449.html‘, ‘http://news.yaozh.com/archive/11340.html‘, ‘http://news.yaozh.com/archive/11026.html‘, ‘http://news.yaozh.com/archive/10433.html‘, ‘http://news.yaozh.com/archive/10219.html‘, ‘http://news.yaozh.com/archive/10206.html‘, ‘http://news.yaozh.com/archive/9732.html‘, ‘http://news.yaozh.com/archive/9648.html‘, ‘http://news.yaozh.com/archive/9373.html‘, ‘http://news.yaozh.com/archive/9279.html‘, ‘http://news.yaozh.com/archive/8806.html‘, ‘http://news.yaozh.com/archive/8479.html‘, ‘http://news.yaozh.com/archive/8480.html‘, ‘http://news.yaozh.com/archive/7897.html‘, ‘http://news.yaozh.com/archive/7898.html‘, ‘http://news.yaozh.com/archive/7899.html‘, ‘http://db.yaozh.com/zhuangrang?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/zhuce?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/yaopinzhongbiao?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/index.php?action=foreign?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/screening?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/jiegou?from=www&position=index_hotdb‘, ‘http://db.yaozh.com/vip/custom.html?source=www&name=db_right‘, ‘http://www.xinyaohui.com‘, ‘http://www.cqyjs.com/index.html‘, ‘http://www.reed-sinopharm.com/‘, ‘http://www.bucm.edu.cn‘, ‘http://pharmacy.scu.edu.cn/‘, ‘http://www.cqmu.edu.cn/‘, ‘http://www.cqacmm.com/‘, ‘http://www.cpri.com.cn/‘, ‘http://www.cpu.edu.cn/‘, ‘http://pharmacy.swu.edu.cn‘, ‘http://www.mypharma.com‘, ‘http://www.psyzg.com/‘, ‘http://www.viptijian.com/0592‘, ‘http://www.7lk.com/‘, ‘http://www.j1.com/pd-baojianpin.html‘, ‘http://www.3156.cn/‘, ‘http://www.sdyyzs.cn‘, ‘http://www.jiankangle.com‘, ‘http://www.rmttjkw.com‘, ‘http://www.sunyet.com‘, ‘http://www.chinayikao.com/‘, ‘http://www.hxyjw.com/ ‘, ‘http://www.100xhs.com/ask/ ‘, ‘http://www.360zhengrong.com/‘, ‘http://www.ftxk.cn/‘, ‘http://www.jianke.com/zypd/‘, ‘http://www.medlive.cn/‘, ‘http://health.qqyy.com/‘, ‘http://www.wendaifu.com/‘, ‘http://health.cqnews.net/‘, ‘http://www.yaofu.cn/‘, ‘http://www.ipathology.cn/‘, ‘http://nk.99.com.cn/‘, ‘http://www.baxsun.cn/‘, ‘http://www.yiliu88.com ‘, ‘http://www.wiki8.com/‘, ‘http://www.39kf.com/‘, ‘http://www.10000yao.com‘, ‘http://www.3618med.com‘, ‘http://www.chem960.com‘, ‘http://www.yaojobs.com‘, ‘http://www.hc3i.cn/‘, ‘http://about.yaozh.com/about.html‘, ‘http://about.yaozh.com/contact.html‘, ‘http://about.yaozh.com/Qualification.html‘, ‘http://about.yaozh.com/join.html‘, ‘http://about.yaozh.com/link.html‘, ‘http://help.yaozh.com/‘, ‘http://bbs.yaozh.com/forum-123-1.html‘, ‘http://bbs.yaozh.com‘, ‘http://www.beian.gov.cn/portal/registerSystemInfo?recordcode=50010802001068‘]

测试3

url=http://www.dxy.cn/

丁香园网址链接是501个

测试4

url=http://www.hsmap.com

只有一个链接

时间: 2024-11-03 21:26:01

抓取一个网站的所有网址链接的相关文章

Java爬虫实战(一):抓取一个网站上的全部链接

前言:写这篇文章之前,主要是我看了几篇类似的爬虫写法,有的是用的队列来写,感觉不是很直观,还有的只有一个请求然后进行页面解析,根本就没有自动爬起来这也叫爬虫?因此我结合自己的思路写了一下简单的爬虫,测试用例就是自动抓取我的博客网站(http://www.zifangsky.cn)的所有链接. 一 算法简介 程序在思路上采用了广度优先算法,对未遍历过的链接逐次发起GET请求,然后对返回来的页面用正则表达式进行解析,取出其中未被发现的新链接,加入集合中,待下一次循环时遍历. 具体实现上使用了Map<

python 抓取&quot;一个&quot;网站文章信息放入数据库

# coding:utf-8 import requests from bs4 import BeautifulSoup import json import time import datetime import pymysql import sys reload(sys) sys.setdefaultencoding('utf-8') # 获取文章内容方法 def getartinfo( url ): page = requests.get(url).content soup = Beaut

Java爬虫实战(二):抓取一个视频网站上2015年所有电影的下载链接

前言:这是Java爬虫实战的第二篇文章,在第一篇文章仅仅只是抓取目标网站的链接的基础上,进一步提高难度,抓取目标页面上我们所需要的内容并保存在数据库中.这里的测试案例选用了一个我常用的电影下载网站(http://www.80s.la/).本来是想抓取网站上的所有电影的下载链接,后来感觉需要的时间太长,因此改成了抓取2015年电影的下载链接. 注:文末有我抓取到的整个列表的下载链接(包括:电影名称和迅雷下载链接) 一 原理简介 其实原理都跟第一篇文章差不多,不同的是鉴于这个网站的分类列表实在太多,

BeautifulSoup抓取门户网站上的链接

使用BeautifulSoup抓取门户网站上的所有跳转链接 from bs4 import BeautifulSoup import urllib2 request = urllib2.Request('http://www.163.com') response = urllib2.urlopen(request) html_doc = response.read() soup = BeautifulSoup(html_doc , from_encoding = "gb18030")

轻而易举的抓取一个web站点

今天一位网友突然在deepin群里问怎么抓取一个站点.他自己用的wget尝试了一下,太繁琐.失败了.有网友建议他学习爬虫技术的,也有说右键保存的,直到有个网友提到了webhttrack这个工具. webhttrack这个工具算是一个简单的,只需要点击几个按钮就能抓取整个站点的工具.简单又好用.本来是不打算写博的,无奈那位网友又没解决.随写博客以示之.webhttrack这个工具在deepin的官方源里面就有,所以不必下载deb包,也不需要添加源或者下载源码编译安装.我能确定的是在ubuntu的官

asp.net如何抓取其他网站的内容

1. 需要引用的类库 using System.Net; using System.IO; using System.Text; using System.Text.RegularExpressions; 2. 获取其他网站网页内容的关键代码 WebRequest request = WebRequest.Create("http://目标网址.com/"); WebResponse response = request.GetResponse(); StreamReader read

如何打造符合搜索引擎抓取的网站?

正如我上篇文章<如何提升企业网络的曝光率>,曾说过一个解决企业网络曝光率的方法:拥有一个适合搜索引擎的网站,那么,如何打造符合搜索引擎抓取的网站?我个人的理解应该从以下四个方面去考虑: 1.从网站的栏目而论,首页内容如何,是一个对于搜索引擎抓取十分重要的步骤.部分企业的网站为了追求美观.大气采用全Flash的首页.搜索引擎的技术无论如何的先进,毕竟也是由机器去实施.因此,它的抓取根本无法识别Flash,而我推荐大家使用博客中的轮展样式,通过轮展图可以使网站达到高端大气上档次的效果同时也具备利于

Scrapy抓取360网站图片

项目名称:抓取360网站图片 目标url:http://image.so.com 项目描述:利用Scrapy的ImagePipeline抓取360网站的图片 要利用Scrapy抓取图片,第一步还是先定义item 1 # -*-coding: utf-8 -*- 2 import scrapy 3 4 class ImageItem(scrapy.Item): 5 image_urls = scrapy.Field() 第二步是在settings.py中打开ImagePipeline,然后定义一下

nutch2.1抓取中文网站

对nutch添加中文网站抓取功能. 1.中文网页抓取 A.调整mysql配置,避免存入mysql的中文出现乱码.修改 ${APACHE_NUTCH_HOME} /runtime/local/conf/gora.properties ############################### # MySQL properties            # ############################### gora.sqlstore.jdbc.driver=com.mysql.jd