Node.js meitulu图片批量下载爬虫1.06版

//======================================================
// https://www.meitulu.com图片批量下载Node.js爬虫1.06
// 1.00 完成图片爬虫,手动输入页数和目录
// 1.01 改写。
// 1.02 手动输入页面url,然后自动解析
// 1.03 从命令行获得页面url,然后自动解析
// 1.04 解决数量节点位置不固定bug和输入状态不退出bug
// 1.05 增加自动模式和手动模式
// 1.06 更改为按名字搜索页批量下载
// 2017年11月9日
//======================================================

// 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录)
var https=require("https");

// 内置http模块,用来通过地址得到图片文件
var http=require("http");

// 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的)
var zlib = require(‘zlib‘); 

// cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录
var cheerio = require("cheerio");

// 内置文件处理模块,用于创建目录和图片文件
var fs=require(‘fs‘);

// 请求参数JSON,http和https都有使用
var options;

// request请求
var req;

//--------------------------------------
// 程序入口
//--------------------------------------
function getInput(){

    process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m");    //紫色
    process.stdin.resume();
    process.stdin.setEncoding(‘utf8‘);    

    process.stdin.on(‘data‘,function(text){
        process.stdin.end();// 退出输入状态
        findPageUrls(text.trim());// trim()是必须的!
    });
}

//--------------------------------------
// 在按名称搜索的页面找到单页url
// batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/
// batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2
// sample2类似的地址可能要尝试多次
//--------------------------------------
function findPageUrls(batchPageUrl){
    console.log("开始查找单页urls");

    var hostName="";
    var Path="";
    var arr=batchPageUrl.split("/");
    hostName=arr[2];
    console.log("hostName="+hostName);

    // 以是否以‘/’结尾区分两种情况
    if(batchPageUrl.charAt(batchPageUrl.length-1)==‘/‘){
        // 带斜杠的是点名字出来的已设定地址
        Path="/"+arr[3]+"/"+arr[4]+"/";
    }else{
        // 不带斜杠的是按关键字搜索出来的
        Path="/"+arr[3]+"/"+arr[4];
    }
    console.log("Path="+Path);

    // 初始化options
    options={
        hostname:hostName,
            port:443,
            path:Path,// 子路径
          method:‘GET‘,
           agent:false,
            gzip: true,

    };

    req=https.request(options,function(resp){
        var html = [];

        resp.on("data", function(data) {
            html.push(data);
        })
        resp.on("end", function() {
            var buffer = Buffer.concat(html);

            zlib.gunzip(buffer, function(err, decoded) {
                var endIndex=-1;
                var folder="";

                if(err){
                    console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err);
                    console.log(err);
                }else{
                    //console.log(decoded.toString());// gzip解压后的html文本
                    var body=decoded.toString();
                    var $ = cheerio.load(body);

                    // 查找所有class为boxs的节点下面的ul li a节点
                    $(".boxs ul li a").each(function(index,element){
                        var text=$(element).attr("href");

                        // 有https://www.meitulu.com/item的地址的链接是目标
                        if(text.indexOf(‘https://www.meitulu.com/item‘)!=-1){
                            console.log("pageUrl="+text);
                            start(text);
                        }
                    })   

                }
            })
        }).on("error", function() {
            console.log("获取失败")
        })
    });

    // 超时处理
    req.setTimeout(5000,function(){
        req.abort();
    });

    // 出错处理
    req.on(‘error‘,function(err){
        if(err.code=="ECONNRESET"){
            console.log(‘socket端口连接超时。‘);
        }else{
            console.log(‘请求发生错误,err.code:‘+err.code);
        }
    });

    // 请求结束
    req.end();
}

//--------------------------------------
// 开始单页下载
//--------------------------------------
function start(pageUrl){
    console.log("开始下载...");

    var hostName="";
    var Path="";
    var arr=pageUrl.split("/");
    hostName=arr[2];
    Path="/"+arr[3]+"/"+arr[4];

    // 初始化options
    options={
        hostname:hostName,
            port:443,
            path:Path,// 子路径
          method:‘GET‘,
           agent:false,
            gzip: true,
    };

    req=https.request(options,function(resp){
        var html = [];

        resp.on("data", function(data) {
            html.push(data);
        })
        resp.on("end", function() {
            var buffer = Buffer.concat(html);

            zlib.gunzip(buffer, function(err, decoded) {
                var endIndex=-1;
                var folder="";

                if(err){
                    console.log("不能得到html文本,因为"+err);
                    console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl);
                }else{
                    //console.log(decoded.toString());// gzip解压后的html文本
                    var body=decoded.toString();
                    var $ = cheerio.load(body);

                    // 查找所有class为c_l的节点下面的p节点
                    $(".c_l p").each(function(index,element){
                        var text=$(element).text();

                        if(text.indexOf("数量")!=-1 && endIndex==-1){
                            var arr=text.split(" ");
                            endIndex=arr[1];
                        }
                    })   

                    // 查找所有class为c_l的节点下面的p节点
                    $(".content center img").each(function(index,element){
                        if(index==0){
                            var text=$(element).attr("src");

                            var arr=text.split("/");
                            folder=arr[arr.length-2];
                        }
                    }) 

                    console.log("页数="+endIndex);
                    console.log("目录="+folder);    

                    fs.mkdir(‘./‘+folder,function(err){
                        if(err){
                            console.log("目录"+folder+"已经存在");
                        }
                    });                

                }    

                // 下载图片
                for(var i=1;i<=endIndex;i++){
                    downloadPic(folder,i);
                }

            })
        }).on("error", function() {
            console.log("获取失败")
        })
    });

    // 超时处理
    req.setTimeout(5000,function(){
        req.abort();
    });

    // 出错处理
    req.on(‘error‘,function(err){
        if(err.code=="ECONNRESET"){
            console.log(‘socket端口连接超时。‘);
        }else{
            console.log(‘请求发生错误,err.code:‘+err.code);
        }
    });

    // 请求结束
    req.end();
}

//--------------------------------------
// 下载图片
// folder:图片所在url的目录
// pinctureIndex:图片序号
//--------------------------------------
function downloadPic(folder,pinctureIndex){
    console.log("图片:"+pinctureIndex+"下载开始");

    // 初始化options
    options={
        hostname:‘mtl.ttsqgs.com‘,// 这里别加http://,否则会出现ENOTFOUND错误
            port:80,
            path:‘/images/img/‘+folder+‘/‘+pinctureIndex+‘.jpg‘,// 子路径
          method:‘GET‘,
    };

    req=http.request(options,function(resp){
        var imgData = "";
        resp.setEncoding("binary"); 

        resp.on(‘data‘,function(chunk){
            imgData+=chunk;
        });

        resp.on(‘end‘,function(){
            var fileName="./"+folder+"/"+pinctureIndex+".jpg";
            fs.writeFile(fileName, imgData, "binary", function(err){
                if(err){
                    console.log("文件"+fileName+"下载失败.");
                }
                console.log("文件"+fileName+"下载成功");
            });
        });
    });

    // 超时处理
    req.setTimeout(5000,function(){
        req.abort();
    });

    // 出错处理
    req.on(‘error‘,function(err){
        if(err.code=="ECONNRESET"){
            console.log(‘socket端口连接超时。‘);
        }else{
            console.log(‘请求发生错误,err.code:‘+err.code);
        }
    });

    // 请求结束
    req.end();
}

// 调用getInput函数,程序开始
getInput();

2017年11月9日21:39:49

时间: 2024-10-04 01:59:59

Node.js meitulu图片批量下载爬虫1.06版的相关文章

Node.js meitulu图片批量下载爬虫1.01版

在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下,可读性应该稍好些.功能上和原程序差不多,只是输出目录不是固定在test目录了.代码如下: //================================================ // https://www.meitulu.com图片批量下载Node.js爬虫1.01 // 2017

Node.js meitulu图片批量下载爬虫1.03版

//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.03 // 1.01 手动输入页数和目录 // 1.02 手动输入页面url,然后自动解析 // 1.02 从命令行获得页面url,然后自动解析 // 2017年11月6日 //====================================================== // 内置h

Node.js mm131图片批量下载爬虫1.01 增加断点续传功能

这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名. 代码如下: //====================================================== // mm131图片批量下载爬虫1.01 // 1.00 具备功能 // 1.01 增加断点续传 // 2017年11月15日 //========================================

Node.js 4493图片批量下载爬虫1.00

这个爬虫依然需要iconv转码,想不到如今非utf8的网页还这么多.另外此网页找下一页的方式比较异常,又再次借助了正则表达式. 代码如下: //====================================================== // 4493图片批量下载爬虫1.00 // 2017年11月19日 //====================================================== // 内置https模块 var https=require(

Node.js nvshens图片批量下载爬虫1.01

//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.00版程序 // 2017年11月21日 //====================================================== // 内置https模块 var https=require("https"); // 内置http模块 var http=requir

Node.js nvshens图片批量下载爬虫 1.00

//====================================================== // www.nvshens.com图片批量下载Node.js爬虫1.00 // 此程序与meitulu爬虫类似,先写个架子在这里 // 2017年11月9日 //====================================================== // 内置https模块 var https=require("https"); // 内置文件处理模

Node.js abaike图片批量下载Node.js爬虫1.00版

这个与前作的差别在于地址的不规律性,需要找到下一页的地址再爬过去找. //====================================================== // abaike图片批量下载Node.js爬虫1.00 // 2017年11月9日 //====================================================== // 内置http模块 var http=require("http"); // 内置文件处理模块,用于创

Node.js aitaotu图片批量下载Node.js爬虫1.00版

即使是https网页,解析的方式也不是一致的,需要多试试. 代码: //====================================================== // aitaotu图片批量下载Node.js爬虫1.00 // 2017年11月14日 //====================================================== // 内置http模块 var https=require("https"); // 内置文件处理模块,

自己动手写工具:百度图片批量下载器

开篇:在某些场景下,我们想要对百度图片搜出来的东东进行保存,但是一个一个得下载保存不仅耗时而且费劲,有木有一种方法能够简化我们的工作量呢,让我们在离线模式下也能爽爽地浏览大量的美图呢?于是,我们想到了使用网络抓取去帮我们去下载图片,并且保存到我们设定的文件夹中,现在我们就来看看如何来设计开发一个这样的图片批量下载器. 一.关于网络抓取与爬虫 网络蜘蛛的主要作用是从Internet上不停地下载网络资源.它的基本实现思想就是通过一个或多个入口网址来获取更多的URL,然后通过对这些URL所指向的网络资