[Java]使用HttpClient实现一个简单爬虫,抓取煎蛋妹子图

 

第一篇文章,就从一个简单爬虫开始吧。

这只虫子的功能很简单,抓取到”煎蛋网xxoo”网页(http://jandan.net/ooxx/page-1537),解析出其中的妹子图,保存至本地。

先放结果:

从程序来讲,步骤分为三步:

1、发起一个http请求,获取返回的response内容;

2、解析内容,分离出有效图片的url;

3、根据这些图片的url,生成图片保存至本地。

开始详细说明:

准备工作:HttpClient的Jar包,访问http://hc.apache.org/   自行下载。

主程序内容:

public class SimpleSpider {
    //起始页码
    private static final int page = 1538;
    public static void main(String[] args) {
        //HttpClient 超时配置
        RequestConfig globalConfig = RequestConfig.custom().setCookieSpec(CookieSpecs.STANDARD).setConnectionRequestTimeout(6000).setConnectTimeout(6000).build();
        CloseableHttpClient httpClient = HttpClients.custom().setDefaultRequestConfig(globalConfig).build();
        System.out.println("5秒后开始抓取煎蛋妹子图……");
        for (int i = page; i > 0; i--) {
            //创建一个GET请求
            HttpGet httpGet = new HttpGet("http://jandan.net/ooxx/page-" + i);
            httpGet.addHeader("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.152 Safari/537.36");
            httpGet.addHeader("Cookie","_gat=1; nsfw-click-load=off; gif-click-load=on; _ga=GA1.2.1861846600.1423061484");
            try {
                //不敢爬太快
                Thread.sleep(5000);
                //发送请求,并执行
                CloseableHttpResponse response = httpClient.execute(httpGet);
                InputStream in = response.getEntity().getContent();
                String html = Utils.convertStreamToString(in);
                //网页内容解析
                new Thread(new JianDanHtmlParser(html, i)).start();
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    }
}

HttpClient是一个非常强大的工具,属于apache下项目。如果只是创建一个默认的httpClient实例,代码很简单,官网手册上有详细说明。

可以看到在创建一个GET请求时,加入了请求头。第一个User-Agent代表所使用浏览器。有些网站需要明确了解用户所使用的浏览器,而有些不需要。个人猜测,部分网站根据用户使用浏览器不同显示不一样。这里的煎蛋网,就必须得加入请求头。第二个Cookie则代表了一些用户设置,可以没有。使用chrome的开发者工具就能清楚看到。如果是https加密后的,则需要特殊的抓包工具。

网页内容解析

public class JianDanHtmlParser implements Runnable {
    private String html;
    private int page;
    public JianDanHtmlParser(String html,int page) {
        this.html = html;
        this.page = page;
    }
    @Override
    public void run() {
        System.out.println("==========第"+page+"页============");
        List<String> list = new ArrayList<String>();
        html = html.substring(html.indexOf("commentlist"));
        String[] images = html.split("li>");
        for (String image : images) {
            String[] ss = image.split("br");
            for (String s : ss) {
                if (s.indexOf("<img src=") > 0) {
                    try{
                        int i = s.indexOf("<img src=\"") + "<img src=\"".length();
                        list.add(s.substring(i, s.indexOf("\"", i + 1)));
                    }catch (Exception e) {
                        System.out.println(s);
                    }

                }
            }
        }
        for(String imageUrl : list){
            if(imageUrl.indexOf("sina")>0){
                new Thread(new JianDanImageCreator(imageUrl,page)).start();
            }
        }
    }
}

这段代码看起来凌乱,但实际上却特别简单。简单说便是,将response返回的html字符串解析,截取,找到真正需要的内容(图片url),存入到临时容器中。

生成图片类

public class JianDanImageCreator implements Runnable {
    private static int count = 0;
    private String imageUrl;
    private int page;
     //存储路径,自定义
    private static final String basePath = "E:/jiandan";
    public JianDanImageCreator(String imageUrl,int page) {
        this.imageUrl = imageUrl;
        this.page = page;
    }
    @Override
    public void run() {
        File dir = new File(basePath);
        if(!dir.exists()){
            dir.mkdirs();
            System.out.println("图片存放于"+basePath+"目录下");
        }
        String imageName = imageUrl.substring(imageUrl.lastIndexOf("/")+1);
        try {
            File file = new File( basePath+"/"+page+"--"+imageName);
            OutputStream os = new FileOutputStream(file);
            //创建一个url对象
            URL url = new URL(imageUrl);
            InputStream is = url.openStream();
            byte[] buff = new byte[1024];
            while(true) {
                int readed = is.read(buff);
                if(readed == -1) {
                    break;
                }
                byte[] temp = new byte[readed];
                System.arraycopy(buff, 0, temp, 0, readed);
                //写入文件
                os.write(temp);
            }
            System.out.println("第"+(count++)+"张妹子:"+file.getAbsolutePath());
            is.close();
            os.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

根据每个图片的src地址创建一个URL对象,再使用字节流,生成本地文件。

这个程序相对来说比较简单,纯属娱乐。如果能让那些不了解HttpClient的同学对这个库产生兴趣,则功德无量。

github地址:https://github.com/nbsa/SimpleSpider

时间: 2024-10-18 18:59:53

[Java]使用HttpClient实现一个简单爬虫,抓取煎蛋妹子图的相关文章

Python爬虫抓取煎蛋(jandan.net)无聊图

1 #!/usr/bin/python 2 #encoding:utf-8 3 ''' 4 @python 3.6.1 5 @author: [email protected] 6 @create date: 20170611 7 8 ''' 9 import requests 10 import urllib 11 import re 12 import os 13 14 #当前最大页数 15 url='http://jandan.net/pic' 16 data=urllib.request

爬虫技术(四)-- 简单爬虫抓取示例(附c#代码)

这是我的第一个爬虫代码...算是一份测试版的代码.大牛大神别喷... 通过给定一个初始的地址startPiont然后对网页进行捕捉,然后通过正则表达式对网址进行匹配. List<string> todo :进行抓取的网址的集合 List<string> visited :已经访问过的网址的集合 下面实现的是,给定一个初始地址,然后进行爬虫,输出正在访问的网址和已经访问的网页的个数. 需要注意的是,下面代码实现的链接匹配页面的内容如图一.图二所示: 图一: 图二: 简单代码示范如下:

简单爬虫-抓取博客园文章列表

原文:简单爬虫-抓取博客园文章列表 如果使用对方网站数据,而又没有响应的接口,或者使用接口不够灵活的情况下,使用爬虫在合适不过了.爬虫有几种,对方网站展示形式有几种都是用分析,每个网站展示有相似的地方,有不同的地方. 大部分使用httpRequst就能完成,不管是否添加了口令.随即码.请求参数.提交方式get或者post.地址来源.多次响应等等.但是有些网站使用ajax如果是返回json或固定格式的也好处理,如果是很复杂的,可以使用webbrower控件进行抓取,最后正则解析,获取所需要的数据即

Python3简单爬虫抓取网页图片

现在网上有很多python2写的爬虫抓取网页图片的实例,但不适用新手(新手都使用python3环境,不兼容python2),所以我用Python3的语法写了一个简单抓取网页图片的实例,希望能够帮助到大家,并希望大家批评指正. 1 import urllib.request 2 import re 3 import os 4 import urllib 5 #根据给定的网址来获取网页详细信息,得到的html就是网页的源代码 6 def getHtml(url): 7 page = urllib.r

python3爬虫爬取煎蛋网妹纸图片

其实之前实现过这个功能,是使用selenium模拟浏览器页面点击来完成的,但是效率实际上相对来说较低.本次以解密参数来完成爬取的过程. 首先打开煎蛋网http://jandan.net/ooxx,查看网页源代码.我们搜索其中一张图片的编号,比如3869006,看下在源代码中是否能找到图片链接 从上面的HTML结构中找到这个标号对应的一些属性,没有直接的图片链接地址,只有一个src=//img.jandan.net/blank.gif,这很明显不是个真实的链接地址,因为每一个图片编号都有这个值.我

python 爬虫爬取煎蛋网妹子图

首先查看js渲染前的html源码,发现放图片的位置是这样的 本该放地址的地方赫然放着blank.gif,并且在onload属性上绑定了一个jandan_load_img函数.这个jandan_load_img就成为本次爬虫的突破所在了.继续ctrl+shift+F全局搜索,找到这个函数 流程图: import hashlib import base64 from bs4 import BeautifulSoup import requests import re import random im

用python来抓取“煎蛋网”上面的美女图片,尺度很大哦!哈哈

废话不多说,先上代码: import urllib.request import re #获得当前页面的页数page_name def get_pagenum(url): req = urllib.request.Request(url) req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safar

React Native ——实现一个简单的抓取github上的项目数据列表

/** * Sample React Native App * https://github.com/facebook/react-native */ 'use strict'; var React = require('react-native'); var { AppRegistry, StyleSheet, Text, Image, View, TextInput, ListView, } = React; var GIT_URL = 'https://api.github.com/sea

Python 简单爬虫抓取糗事百科

# coding:utf-8 import timeimport randomimport urllib2from bs4 import BeautifulSoup #引入 beautifulsoup模块 #p = 1 #定义 页url = 'http://www.qiushibaike.com/text/page/'#定义header my_headers = [    'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 F