Node.js nvshens图片批量下载爬虫 1.00

//======================================================
// www.nvshens.com图片批量下载Node.js爬虫1.00
// 此程序与meitulu爬虫类似,先写个架子在这里
// 2017年11月9日
//======================================================

// 内置https模块
var https=require("https");

// 内置文件处理模块,用于创建目录和图片文件
var fs=require(‘fs‘);

// 请求参数JSON。http和https都有使用
var options;

// request请求
var req;

// https://img.onvshen.com:85/gallery/11519/11602/0.jpg‘
//--------------------------------------
// 下载图片
// folder:图片所在url的一级目录
// subfolder:图片所在url的二级目录
// pinctureIndex:图片序号
//--------------------------------------
function downloadPic(folder,subfolder,pinctureIndex){
    console.log("图片:"+pinctureIndex+"下载开始");

    // 初始化options
    options={
        hostname:‘img.onvshen.com‘,
            port:85,
            path:‘/gallery/‘+folder+"/"+subfolder+"/"+pinctureIndex+‘.jpg‘,// 子路径
          method:‘GET‘,
    };

    req=https.request(options,function(resp){
        var imgData = "";
        resp.setEncoding("binary"); 

        resp.on(‘data‘,function(chunk){
            imgData+=chunk;
        });

        resp.on(‘end‘,function(){
            // 创建目录
            fs.mkdir(‘./‘+subfolder,function(err){
                if(err){
                    console.log("目录"+folder+"已经存在");
                }
            });

            // 创建文件
            var fileName="./"+subfolder+"/"+pinctureIndex+".jpg";
            fs.writeFile(fileName, imgData, "binary", function(err){
                if(err){
                    console.log("文件"+fileName+"下载失败.");
                    console.log(err);
                }else{
                    console.log("文件"+fileName+"下载成功");
                }
            });
        });
    });

    // 超时处理
    req.setTimeout(5000,function(){
        req.abort();
    });

    // 出错处理
    req.on(‘error‘,function(err){
        if(err.code=="ECONNRESET"){
            console.log(‘[downloadPic]socket端口连接超时。‘);
            console.log(err);
        }else{
            console.log(‘[downloadPic]请求发生错误,err.code:‘+err.code);
            console.log(err);
        }
    });

    // 请求结束
    req.end();
}

/* 左边自动补零 质朴长存法  by lifesinger */
function pad(num, n) {
    var len = num.toString().length;
    while(len < n) {
        num = "0" + num;
        len++;
    }
    return num;
} 

// 下载一批
function start(){
    for(var i=1;i<55;i++){
        var fileName=pad(i,3);
        downloadPic(‘11519‘,‘11602‘,fileName);
    }
}

// 调用start函数,程序开始
start();
时间: 2024-11-09 01:00:23

Node.js nvshens图片批量下载爬虫 1.00的相关文章

Node.js nvshens图片批量下载爬虫1.01

//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.00版程序 // 2017年11月21日 //====================================================== // 内置https模块 var https=require("https"); // 内置http模块 var http=requir

Node.js 4493图片批量下载爬虫1.00

这个爬虫依然需要iconv转码,想不到如今非utf8的网页还这么多.另外此网页找下一页的方式比较异常,又再次借助了正则表达式. 代码如下: //====================================================== // 4493图片批量下载爬虫1.00 // 2017年11月19日 //====================================================== // 内置https模块 var https=require(

Node.js mm131图片批量下载爬虫1.01 增加断点续传功能

这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名. 代码如下: //====================================================== // mm131图片批量下载爬虫1.01 // 1.00 具备功能 // 1.01 增加断点续传 // 2017年11月15日 //========================================

Node.js meitulu图片批量下载爬虫1.01版

在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下,可读性应该稍好些.功能上和原程序差不多,只是输出目录不是固定在test目录了.代码如下: //================================================ // https://www.meitulu.com图片批量下载Node.js爬虫1.01 // 2017

Node.js meitulu图片批量下载爬虫1.06版

//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.06 // 1.00 完成图片爬虫,手动输入页数和目录 // 1.01 改写. // 1.02 手动输入页面url,然后自动解析 // 1.03 从命令行获得页面url,然后自动解析 // 1.04 解决数量节点位置不固定bug和输入状态不退出bug // 1.05 增加自动模式和手动模式 // 1

Node.js meitulu图片批量下载爬虫1.03版

//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.03 // 1.01 手动输入页数和目录 // 1.02 手动输入页面url,然后自动解析 // 1.02 从命令行获得页面url,然后自动解析 // 2017年11月6日 //====================================================== // 内置h

Node.js abaike图片批量下载Node.js爬虫1.00版

这个与前作的差别在于地址的不规律性,需要找到下一页的地址再爬过去找. //====================================================== // abaike图片批量下载Node.js爬虫1.00 // 2017年11月9日 //====================================================== // 内置http模块 var http=require("http"); // 内置文件处理模块,用于创

Node.js aitaotu图片批量下载Node.js爬虫1.00版

即使是https网页,解析的方式也不是一致的,需要多试试. 代码: //====================================================== // aitaotu图片批量下载Node.js爬虫1.00 // 2017年11月14日 //====================================================== // 内置http模块 var https=require("https"); // 内置文件处理模块,

自己动手写工具:百度图片批量下载器

开篇:在某些场景下,我们想要对百度图片搜出来的东东进行保存,但是一个一个得下载保存不仅耗时而且费劲,有木有一种方法能够简化我们的工作量呢,让我们在离线模式下也能爽爽地浏览大量的美图呢?于是,我们想到了使用网络抓取去帮我们去下载图片,并且保存到我们设定的文件夹中,现在我们就来看看如何来设计开发一个这样的图片批量下载器. 一.关于网络抓取与爬虫 网络蜘蛛的主要作用是从Internet上不停地下载网络资源.它的基本实现思想就是通过一个或多个入口网址来获取更多的URL,然后通过对这些URL所指向的网络资