Nodejs实现爬虫抓取数据

开始之前请先确保自己安装了Node.js环境,还没有安装的的童鞋请自行百度安装教程......

1.在项目文件夹安装两个必须的依赖包

npm install superagent --save-dev

  superagent 是一个轻量的,渐进式的ajax api,可读性好,学习曲线低,内部依赖nodejs原生的请求api,适用于nodejs环境下

npm install cheerio --save-dev

  cheerio是nodejs的抓取页面模块,为服务器特别定制的,快速、灵活、实施的jQuery核心实现。适合各种Web爬虫程序。相当于node.js中的jQuery

2.新建  crawler.js  文件

//导入依赖包
const http       = require("http");
const path       = require("path");
const url        = require("url");
const fs         = require("fs");

const superagent = require("superagent");
const cheerio    = require("cheerio");

3.获取 Boos直聘数据

superagent
    .get("https://www.zhipin.com/job_detail/?city=100010000&source=10&query=%E5%89%8D%E7%AB%AF")
    .end((error,response)=>{
        //获取页面文档数据
        var content = response.text;
        //cheerio也就是nodejs下的jQuery  将整个文档包装成一个集合,定义一个变量$接收
        var $ = cheerio.load(content);
        //定义一个空数组,用来接收数据
        var result=[];
        //分析文档结构  先获取每个li 再遍历里面的内容(此时每个li里面就存放着我们想要获取的数据)
        $(".job-list li .job-primary").each((index,value)=>{
            //地址和类型为一行显示,需要用到字符串截取
            //地址
            let address=$(value).find(".info-primary").children().eq(1).html();
            //类型
            let type=$(value).find(".info-company p").html();
            //解码
            address=unescape(address.replace(/&#x/g,‘%u‘).replace(/;/g,‘‘));
            type=unescape(type.replace(/&#x/g,‘%u‘).replace(/;/g,‘‘))
            //字符串截取
            let addressArr=address.split(‘<em class="vline"></em>‘);
            let typeArr=type.split(‘<em class="vline"></em>‘);
            //将获取的数据以对象的形式添加到数组中
            result.push({
                title:$(value).find(".name .job-title").text(),
                money:$(value).find(".name .red").text(),
                address:addressArr,
                company:$(value).find(".info-company a").text(),
                type:typeArr,
                position:$(value).find(".info-publis .name").text(),
                txImg:$(value).find(".info-publis img").attr("src"),
                time:$(value).find(".info-publis p").text()
            });
            // console.log(typeof $(value).find(".info-primary").children().eq(1).html());
        });
        //将数组转换成字符串
        result=JSON.stringify(result);
        //将数组输出到json文件里  刷新目录 即可看到当前文件夹多出一个boss.json文件(打开boss.json文件,ctrl+A全选之后 ctrl+K,再Ctrl+F即可将json文件自动排版)
        fs.writeFile("boss.json",result,"utf-8",(error)=>{
            //监听错误,如正常输出,则打印null
            if(error==null){
                console.log("恭喜您,数据爬取成功!请打开json文件,先Ctrl+A,再Ctrl+K,最后Ctrl+F格式化后查看json文件(仅限Visual Studio Code编辑器)");
            }
        });
    });  

跟着狗尾草走完这篇nodejs爬虫相信大家又get了 一个新技能,狗尾草和大家一起加油,一起努力!

鸣谢:Mrs.Zhang

转载至:https://blog.csdn.net/twodogya/article/details/80204322

原文地址:https://www.cnblogs.com/bgwhite/p/9265959.html

时间: 2024-12-10 22:35:11

Nodejs实现爬虫抓取数据的相关文章

nodejs爬虫抓取数据 -- html 实体编码处理办法

cheerio DOM化并解析的时候 1.假如使用了 .text()方法,则一般不会有html实体编码的问题出现 2.如果使用了 .html()方法,则很多情况下都会出现,这时,可能就需要转义一番了 类似这些 因为需要作数据存储,所有需要转换 Халк крушит. Новый способ исполнен 大多数都是&#(x)?\w+的格式 所以就用正则转换一番 var body = ....//这里就是请求后获得的返回数据,或者那些 .html()后获取的 //一般可以先转换为标准uni

使用selenium爬虫抓取数据

写在前面 本来这篇文章该几个月前写的,后来忙着忙着就给忘记了.ps:事多有时候反倒会耽误事.几个月前,记得群里一朋友说想用selenium去爬数据,关于爬数据,一般是模拟访问某些固定网站,将自己关注的信息进行爬取,然后再将爬出的数据进行处理.他的需求是将文章直接导入到富文本编辑器去发布,其实这也是爬虫中的一种.其实这也并不难,就是UI自动化的过程,下面让我们开始吧. 准备工具/原料 1.java语言2.IDEA开发工具3.jdk1.84.selenium-server-standalone(3.

python爬虫抓取数据

URL管理器实现方式:1. 内存python内存待爬取URL集合:set()已爬取URL集合:set() 2. 关系数据库MySQLurls(url, is_crawled) 3. 缓存数据库(高性能,大公司存储)redis待爬取URL集合:set已爬取URL集合:set 网页下载器urllib2 python官方基础模块requests 第三方包更强大 import urllib2 urllib2下载网页方法一:############################直接请求response

分布式爬虫:使用Scrapy抓取数据

分布式爬虫:使用Scrapy抓取数据 Scrapy是Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. 官方主页: http://www.scrapy.org/ 中文文档:Scrapy 0.22 文档 GitHub项目主页:https://github.com/scrapy/scrapy Scrapy 使用了 Twisted 异步网络库来处理网络通讯.整体架构大致如下(注:图片来自

NodeJs爬虫抓取古代典籍,共计16000个页面心得体会总结及项目分享

项目技术细节 项目大量用到了 ES7 的async 函数, 更直观的反应程序了的流程.为了方便,在对数据遍历的过程中直接使用了著名的async这个库,所以不可避免的还是用到了回调promise ,因为数据的处理发生在回调函数中,不可避免的会遇到一些数据传递的问题,其实也可以直接用ES7的async await 写一个方法来实现相同的功能.这里其实最赞的一个地方是使用了 Class 的 static 方法封装对数据库的操作, static 顾名思义 静态方法 就跟 prototype 一样 ,不会

利用“爬虫”抓视频 法院审结全国首例计算机抓取数据案

近期,海淀法院审结了一起利用"爬虫"技术侵入计算机信息系统抓取数据的刑事案件.该案是全国首例利用"爬虫"技术非法入侵其他公司服务器抓取数据,进而实施复制被害单位视频资源的案件. 法院经审理查明,被告单位上海某网络科技有限公司,经营计算机网络科技领域内的技术开发.技术服务.电子商务.电子产品等业务.被告人张某是上海某网络科技有限公司法定代表人兼CEO,负责公司整体运行:被告人宋某于2016年8月至2017年2月任职上海某网络科技有限公司,担任联席CEO,是产品负责人:

[Python爬虫] 之三:Selenium 调用IEDriverServer 抓取数据

接着上一遍,在用Selenium+phantomjs 抓取数据过程中发现,有时候抓取不到,所以又测试了用Selenium+浏览器驱动的方式:具体代码如下: #coding=utf-8import osimport refrom selenium import webdriverfrom selenium.webdriver.common.keys import Keysimport timefrom selenium.webdriver.common.action_chains import A

nodejs抓取数据一(列表抓取)

纯属初学...有很多需要改进的地方,请多多指点... 目标是抓取58同城 这个大分类下的列表数据: http://cd.58.com/caishui/?PGTID=14397169455980.9244072034489363&ClickID=1 简单分析: 1. 按照以下二级分类来获取每个列表的数据, 2. 主要分页: 可以看出,其分页是pn5 这里设置的,那么这个5就是页码了. http://cd.58.com/dailijizh/pn5/?PGTID=1177429071887065549

node.js抓取数据(fake小爬虫)

在node.js中,有了 cheerio 模块.request 模块,抓取特定URL页面的数据已经非常方便. 一个简单的就如下 var request = require('request'); var cheerio = require('cheerio'); request(url,function(err,res){ if(err) return console.log(err); var $ = cheerio.load(res.body.toString()); //解析页面内容 })