Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

先识别商品url,区分平台提取商品编号,再根据平台带着商品编号爬取数据。

1.导包

<!-- 爬虫相关Jar包依赖 -->
    <dependency>
      <groupId>org.apache.poi</groupId>
      <artifactId>poi-ooxml</artifactId>
      <version>3.10-FINAL</version>
    </dependency>
    <dependency>
      <groupId>org.apache.httpcomponents</groupId>
      <artifactId>httpclient</artifactId>
      <version>4.5.3</version>
    </dependency>
    <dependency>
      <groupId>org.jsoup</groupId>
      <artifactId>jsoup</artifactId>
      <version>1.11.3</version>
    </dependency>

    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <scope>provided</scope>
    </dependency>

2.封装返回类型和常量

引入lombok 注入@Data 来避免写get set toString等重复代码


package java1024.xyz.vo;

import lombok.Data;

/**

  • @author xivin
  • @email [email protected]
  • @description
  • @date 2020/1/3br/>*/
    @Data
    public class UrlData {

    private int status;
    private String platform;
    private Long number;

}

package java1024.xyz.vo;

/**

import com.fasterxml.jackson.annotation.JsonFormat;
import lombok.Data;

import java.io.Serializable;
import java.sql.Timestamp;

/**

  • @author xivin
  • @email [email protected]
  • @description 商品实体类
  • @date 2020/1/3br/>*/
    @Data
    public class Product implements Serializable {

    private Long id;

    private Long number;

    private Float price;

    private Integer userId;

    private String url;

    private Integer platformId;

    private String title;

    private String describe;

    private Integer status;

    @JsonFormat( pattern="yyyy-MM-dd HH:mm:ss")
    private Timestamp createdAt;

    private Timestamp updatedAt;

}


## 3.前期工作做好后开始封装 识别url工具 UrlUtils.java

/**

  • @author xivin
  • @email [email protected]
  • @description
  • @date 2020/1/3
    */
    public class UrlUtils {

    public static UrlData analyseUrl(String url) {

    UrlData urlData = new UrlData();
    try {
    
        // 判空
        if (StringUtils.isEmpty(url)) {
            urlData.setStatus(0);
            return urlData;
        }
    
        //天猫
        if (url.contains(UrlConst.tmallUrlSign)) {
    
            urlData.setPlatform(UrlConst.tmallUrlSign);
            String numberStr = "";
    
            /**
             * 切分根路径 和 参数 如:
             * https://detail.tmall.com/item.htm?spm=a220m.1000858.1000725.8.27832a99AfoD5W&id=604433373792
             * 在 ?问号的地方切成两部分
             *
             */
            String[] roudAndParams = url.split("\\?");
    
            if (roudAndParams.length < 2) {
                urlData.setStatus(0);
                return urlData;
            }
    
            /**
             * 获取 参数字符串,通过&切开多个参数,提取以 id=开头的即 商品id
             */
            String paramStr =  roudAndParams[1];
            String[] params = paramStr.split("&");
            for (int i = 0;i < params.length; i++) {
                if (params[i].startsWith("id=")) {
                    numberStr = params[i].split("id=")[1];
                    break;
                }
            }
    
            if (StringUtils.isEmpty(numberStr)) {
                urlData.setStatus(0);
                return urlData;
            }
    
            Long number = new Long(numberStr);
            urlData.setStatus(1);
            urlData.setNumber(number);
            return urlData;
    
        }
        //淘宝
        else if (url.contains(UrlConst.taobaoUrlSign)) {
    
            urlData.setPlatform(UrlConst.taobaoUrlSign);
            String numberStr = "";
    
            /**
             * 切分根路径 和 参数 如:
             * https://detail.tmall.com/item.htm?spm=a220m.1000858.1000725.8.27832a99AfoD5W&id=604433373792
             * 在 ?问号的地方切成两部分
             *
             */
            String[] roudAndParams = url.split("\\?");
    
            if (roudAndParams.length < 2) {
                urlData.setStatus(0);
                return urlData;
            }
    
            /**
             * 获取 参数字符串,通过&切开多个参数,提取以 id=开头的即 商品id
             */
            String paramStr =  roudAndParams[1];
            String[] params = paramStr.split("&");
            for (int i = 0;i < params.length; i++) {
                if (params[i].startsWith("id=")) {
                    numberStr = params[i].split("id=")[1];
                    break;
                }
            }
    
            if (StringUtils.isEmpty(numberStr)) {
                urlData.setStatus(0);
                return urlData;
            }
    
            Long number = new Long(numberStr);
            urlData.setStatus(1);
            urlData.setNumber(number);
            return urlData;
        }
        //其他
        else if (url.contains(UrlConst.jingdongUrlSign)) {
    
            urlData.setPlatform(UrlConst.jingdongUrlSign);
            String numberStr = "";
            String[] roudAndParams = url.split("jd\\.com/");
    
            if (roudAndParams.length < 2) {
                urlData.setStatus(0);
                return urlData;
            }
    
            String paramStr =  roudAndParams[1];
            String[] params = paramStr.split(".html");
            numberStr = params[0];
    
            if (StringUtils.isEmpty(numberStr)) {
                urlData.setStatus(0);
                return urlData;
            }
    
            Long number = new Long(numberStr);
            urlData.setStatus(1);
            urlData.setNumber(number);
            return urlData;
        }
        else {
            urlData.setStatus(0);
            return urlData;
        }
    }catch (Exception e) {
        e.printStackTrace();
        urlData.setStatus(0);
        return urlData;
    }

    }

    public static void main(String[] args) {

    String tmallUrl = "https://detail.tmall.com/item.htm?spm=a220m.1000858.1000725.8.27832a99AfoD5W&id=604433373792&skuId=4233630160968&user_id=1776477331&cat_id=2&is_b=1&rn=2eff85a6a504024ee62222a0045d9ded";
    UrlData tmall = analyseUrl(tmallUrl);
    System.out.println("tmall = " + tmall);
    
    String taobaoUrl =  "https://s.taobao.com/search?spm=a230r.1.14.7.ade0695abTrJ6k&type=samestyle&app=i2i&rec_type=1&uniqpid=69915374&nid=604733501729";
    UrlData taobao = analyseUrl(taobaoUrl);
    System.out.println("taobao = " + taobao);
    
    String jdUrl = "https://item.jd.com/100004250098.html#none";
    UrlData jd = analyseUrl(jdUrl);
    System.out.println("jd = " + jd);

    }

}


## 4.爬取天猫方法

> Java 爬虫说明:创建HttpClient,设置请求头,执行请求,解析相应!具体代码也有相应的解析

public Product soupTmallDetailById(Long number) {

    try {

        // 需要爬取商品信息的网站地址
        String url = "https://chaoshi.detail.tmall.com/item.htm?id=" + number;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
              //System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Element item = doc.select("div[class=‘tb-wrap‘]").get(0);
                //Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                //System.out.println("item = " + item);
                Product product = new Product();
                //for (Element item : ulList) {
                    // 商品ID
                try {
                    product.setNumber(number);
                    product.setPlatformId(1);
                    //String id = item.select("div[class=‘tb-detail-hd‘]").select("h1").attr("data-spm");
                    String title = item.select("div[class=‘tb-detail-hd‘]").select("h1").text();
                    product.setTitle(title);
                    product.setUrl(UrlConst.TMALL_PRODUCT_DETAIL+number);

                    System.out.println("商品title:" + title);
                    //String priceStr = item.select("div[class=‘tm-price-panel‘]").select("div[class=‘tm-promo-type‘]").select("span[class=‘tm-price‘]").text();

                    return product;
                }catch (Exception e) {
                    product.setId(0L);
                    product.setTitle("商品不存在");
                    return product;
                }
                // }
            }
        }catch (Exception e) {
            e.printStackTrace();
            Product product = new Product();
            product.setId(0L);
            product.setTitle("商品不存在");
            return product;
        }

    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;
}

## 5.爬取京东商品详情方法

public Product soupTaobaoDetailById(Long number) {

    try {

        // 需要爬取商品信息的网站地址
        String url = "https://item.taobao.com/item.htm?id=" + number;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
                //System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Element item = doc.select("div[class=‘tb-item-info-r‘]").get(0);
                //Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                //System.out.println("item = " + item);
                Product product = new Product();
                //for (Element item : ulList) {
                // 商品ID
                try {
                    product.setNumber(number);
                    product.setPlatformId(2);
                    //String id = item.select("div[class=‘tb-detail-hd‘]").select("h1").attr("data-spm");
                    String title = item.select("div[class=‘tb-title‘]").select("h3").text();
                    product.setTitle(title);
                    product.setUrl(UrlConst.TAOBAO_PRODUCT_DETAIL+number);

                    System.out.println("商品title:" + title);

                    return product;
                }catch (Exception e) {
                    product.setId(0L);
                    product.setTitle("商品不存在");
                    return product;
                }
                // }
            }
        }catch (Exception e) {
            e.printStackTrace();
            Product product = new Product();
            product.setId(0L);
            product.setTitle("商品不存在");
            return product;
        }

    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;
}

## 6.天猫搜索功能

public List<Product> soupTaobaoByKeyWord(String keyword) {

    try {

        String input = "毛巾";
        // 需要爬取商品信息的网站地址 实际中把input改成 keyword
        String url = "https://list.tmall.com/search_product.htm?q=" + input;
        // 动态模拟请求数据
        CloseableHttpClient httpclient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet(url);
        // 模拟浏览器浏览(user-agent的值可以通过浏览器浏览,查看发出请求的头文件获取)
        httpGet.setHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36");
        CloseableHttpResponse response = httpclient.execute(httpGet);
        // 获取响应状态码
        int statusCode = response.getStatusLine().getStatusCode();
        try {
            HttpEntity entity = response.getEntity();
            // 如果状态响应码为200,则获取html实体内容或者json文件
            if (statusCode == 200) {
                String html = EntityUtils.toString(entity, Consts.UTF_8);
                // 提取HTML得到商品信息结果
                Document doc = null;
                // doc获取整个页面的所有数据
                doc = Jsoup.parse(html);
                //输出doc可以看到所获取到的页面源代码
        //      System.out.println(doc);
                // 通过浏览器查看商品页面的源代码,找到信息所在的div标签,再对其进行一步一步地解析
                Elements ulList = doc.select("div[class=‘view grid-nosku‘]");
                Elements liList = ulList.select("div[class=‘product‘]");
                // 循环liList的数据(具体获取的数据值还得看doc的页面源代码来获取,可能稍有变动)
                for (Element item : liList) {
                    // 商品ID
                    String id = item.select("div[class=‘product‘]").select("p[class=‘productStatus‘]").select("span[class=‘ww-light ww-small m_wangwang J_WangWang‘]").attr("data-item");
                    System.out.println("商品ID:" + id);
                    // 商品名称
                    String name = item.select("p[class=‘productTitle‘]").select("a").attr("title");
                    System.out.println("商品名称:" + name);
                    // 商品价格
                    String price = item.select("p[class=‘productPrice‘]").select("em").attr("title");
                    System.out.println("商品价格:" + price);
                    // 商品网址
                    String goodsUrl = item.select("p[class=‘productTitle‘]").select("a").attr("href");
                    System.out.println("商品网址:" + goodsUrl);
                    // 商品图片网址
                    String imgUrl = item.select("div[class=‘productImg-wrap‘]").select("a").select("img").attr("data-ks-lazyload");
                    System.out.println("商品图片网址:" + imgUrl);
                    System.out.println("------------------------------------");
                }
                // 消耗掉实体
                EntityUtils.consume(response.getEntity());
            } else {
                // 消耗掉实体
                EntityUtils.consume(response.getEntity());
            }
        } finally {
            response.close();
        }
    }catch (Exception e) {
        e.printStackTrace();
    }

    return null;

}


## 7.利用爬虫技术完成的一个 商品历史价格记录网站 项目——值得吗?价格记录网站 github地址:https://github.com/xivinChen/zhi-de-ma

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

原文地址:https://blog.51cto.com/12219995/2465468

时间: 2024-10-06 05:44:24

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情的相关文章

python实现爬取千万淘宝商品的方法_python_脚本之家

分享到 一键分享 QQ空间 新浪微博 百度云收藏 人人网 腾讯微博 百度相册 开心网 腾讯朋友 百度贴吧 豆瓣网 搜狐微博 百度新首页 QQ好友 和讯微博 更多... 百度分享 python实现爬取千万淘宝商品的方法 作者:mingaixin 字体:[增加 减小] 类型:转载 这篇文章主要介绍了python实现爬取千万淘宝商品的方法,涉及Python页面抓取的相关技巧,需要的朋友可以参考下 本文实例讲述了python实现爬取千万淘宝商品的方法.分享给大家供大家参考.具体实现方法如下: ? 1 2

Java爬虫爬取京东商品信息

<strong> java<em style="color:red;">爬虫</em></strong>工具:Jsoup Maven地址 <dependency> <!-- jsoup HTML parser library @ https://jsoup.org/ --> <groupId>org.jsoup</groupId> <artifactId>jsoup</ar

爬虫 爬取天猫商品的封面信息

# 爬取搜索字段的封面信息 ''' q : 搜索的类型 可以识别中文 天猫控制登录字段: sort: 排序 s:起始第几个商品 问题1: 把s删除以后,虽说可以跳过登陆,但是只能访问第一页了,何解? 解决: 多次点击页面后发现,淘宝测试不完全,在点击跳转页面后,将其的url后的参数只保留 q totalPage jumpto 三个字段后,就可以通过修改jumpto字段的值 来跳转到其他的页面 问题2: 解决登陆问题后,发现无法提前知道totalpage的总页数 解决:只要页面有显示,那我们就能拿

java爬虫爬取的html内容中空格(&amp;nbsp;)变为问号“?”的解决方法

用java编写的爬虫,使用xpath爬取内容后,发现网页源码中的 全部显示为?(问号),但是使用字符串的replace("?", ""),并不能替换,网上找了一下,大概意思是显示的这个问号其实并不是问号,是乱码,主要是由于编码的问题导致的. 解决方法如下: //替换抓取内容中“ ”变为问号的问题 try { intro = new String(intro.getBytes(),"GBK").replace('?', ' ').replace('

java爬虫爬取网页内容前,对网页内容的编码格式进行判断的方式

近日在做爬虫功能,爬取网页内容,然后对内容进行语义分析,最后对网页打标签,从而判断访问该网页的用户的属性. 在爬取内容时,遇到乱码问题.故需对网页内容编码格式做判断,方式大体分为三种:一.从header标签中获取Content-Type=#Charset:二.从meta标签中获取Content-Type=#Charset:三.根据页面内容分析编码格式. 其中一/二方式并不能准确指示该页面的具体编码方式,周全考虑,加入第三种方式. 第三种方式引入开源jar包info.monitorenter.cp

java爬虫爬取博客园数据

网络爬虫 编辑 网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模拟程序或者蠕虫. 网络爬虫按照系统结构和实现技术,大致可以分为以下几种类型:通用网络爬虫(General Purpose Web Crawler).聚焦网络爬虫(Focused Web Crawler).增量式网络爬虫(Incremental Web Crawler).深层网络爬虫(Deep We

java爬虫爬取学校毕设题目

背景 效果 思路 代码准备 依赖(jar包): 建表 代码 java爬虫过程解析 如何解决分页问题 背景 最近很多大四学生问我毕业设计如何选题 “你觉得图书管理系统怎么样?” “导师不让做这个,说太简单” “那你觉得二手交易平台怎么样?” “导师说没新意,都有咸鱼了你做这个有什么意思?要新颖的” “那你觉得个人博客平台的搭建怎么样?” “啥是博客?” “emmmm……在线售票怎么样?” “导师说今年不让选xx管理系统,这些都太简单” “那你觉得做人脸识别或者垃圾自动分类怎么样” “导师说这些太难

爬取千万淘宝商品的python脚本

import time import leveldb from urllib.parse import quote_plus import re import json import itertools import sys import requests from queue import Queue from threading import Thread URL_BASE = 'http://s.m.taobao.com/search?q={}&n=200&m=api4h5&

Python3爬虫爬取淘宝商品数据

这次的主要的目的是从淘宝的搜索页面获取商品的信息.其实分析页面找到信息很容易,页面信息的存放都是以静态的方式直接嵌套的页面上的,很容易找到.主要困难是将信息从HTML源码中剥离出来,数据和网页源码结合的很紧密,剥离数据有一定的难度. 然后将获取的信息写入excel表格保存起来,这次只爬取了前面10页 的内容.在运行代码的过程中发现,30页后面的数据有问题,出现了手机价格为0的情况,这是不符合实际的,码也没有写错误处理的代码. 这次先写个粗略的,有点凌乱的感觉,下次有时间再系统的整理整理吧. im