Java爬虫实现京东物流查询

网上没有免费的接口,只能自己写一套了,参考代码如下

public static JSONObject getLastInfo(String no){
		JSONObject jsonObject=new JSONObject();
		jsonObject.put("no", no);
		Connection connection=Jsoup.connect("http://www.jdwl.com/order/search?waybillCodes="+no);
		connection.header("Referer", "");
		connection.header("Host", "www.jdwl.com");
		connection.header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3");
		connection.header("Accept-Language", "zh-CN,zh;q=0.9");
		connection.header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36");
		Document document;
		try {
			document = connection.timeout(3000).get();
			Element element=document.select(".b-new-search-list").first();
			if(element!=null){
				jsonObject.put("accept_time",element.select(".time").first().text()+" "+element.select(".b-new-search-time").first().text() );
				String remark=element.select(".b-new-search-info").first().text();
				jsonObject.put("remark",remark);
				if(remark!=null&&(remark.indexOf("签收")>-1||remark.indexOf("期待再次为您服务")>-1)){
					jsonObject.put("opcode",80);
				}else{
					jsonObject.put("opcode",30);
				}
				GpicLogger.getExpress().info(jsonObject);
				return jsonObject;
			}
			return null;
		} catch (IOException e) {
			GpicLogger.getExpress().error(no+">>>"+e);
			return null;
		}
	}
	public static void main(String[] args) throws IOException {
		System.out.println(getLastInfo("JDVE00197954011"));
	}

  

原文地址:https://www.cnblogs.com/java-rocky/p/11763864.html

时间: 2024-10-15 00:09:19

Java爬虫实现京东物流查询的相关文章

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情

Java爬虫爬取 天猫 淘宝 京东 搜索页和 商品详情 先识别商品url,区分平台提取商品编号,再根据平台带着商品编号爬取数据. 1.导包 <!-- 爬虫相关Jar包依赖 --> <dependency> <groupId>org.apache.poi</groupId> <artifactId>poi-ooxml</artifactId> <version>3.10-FINAL</version> </

Java爬虫框架调研

Python中大的爬虫框架有scrapy(风格类似django),pyspider(国产python爬虫框架). 除了Python,Java中也有许多爬虫框架. nutch apache下的开源爬虫程序,功能丰富,文档完整.有数据抓取解析以及存储的模块 heritrix 比较成熟 地址:internetarchive/heritrix3 · GitHub很早就有了,经历过很多次更新,使用的人比较多,功能齐全,文档完整,网上的资料也多.有自己的web管理控制台,包含了一个HTTP 服务器.操作者可

java爬虫案例学习

最近几天很无聊,学习了一下java的爬虫,写一些自己在做这个案例的过程中遇到的问题和一些体会1.学习目标         练习爬取京东的数据,图片+价格+标题等等 2.学习过程 1·开发工具           JDK1.8           IntelliJ IDEA           IDEA自带的Maven 2.使用技术           Spring Boot+Spring Data JPA       3.数据库准备 CREATE TABLE `jd_item` ( `id` b

Java 爬虫工具Jsoup解析

Jsoup是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址.HTML 文本内容.它提供了一套非常省力的 API,可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据. jsoup 的主要功能如下: 1. 从一个 URL,文件或字符串中解析 HTML: 2. 使用 DOM 或 CSS 选择器来查找.取出数据: 3. 可操作 HTML 元素.属性.文本: jsoup 是基于 MIT 协议发布的,可放心使用于商业项目. jsoup 可以从包括字符串.URL

国内主流快递物流查询API接口测评对比

? 快递物流查询API接口 快递查询接口是指快递查询网对外开放的应用程序接口,开发人员能够通过调用该接口与快递查询网进行交互,并基于该接口开发自己的快递查询应用程序. ? 应用场景 ① 买家物流查询:轨迹跟踪.包裹进度.预计送达时间.派送人联系方式等.② 卖家物流跟踪:是否超区.转件.多次派送.拒收③ 平台监控管理:假交易监控.匹配卖家发货与顾客确认收货时间.目前常用的快递物流查询接口供应平台有阿里云.用友APILink.京东万象.华为云.聚合数据.本文从用户体验角度对这5个平台上提供的快递物流

初识Java爬虫之Jsoup,提供参考代码

本文主要分享的是关于Java爬虫技术其中一个方式   ==>  Jsoup 1.Jsoup简介 推开技术大门,爬虫技术琳琅满目,而今天要分享的Jsoup是一款Java的HTML解析神器,,可直接解析某个URL地址.HTML文本内容.它提供了一套非常省力的API.可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据. .关于Jsoup的详细介绍,不赘述,以下是 官方文档,自行查阅.我们直接上代码. 2.代码分享(真实爬取一个政府采购网:中国政府采购网,按照关键词搜索的公告) 注意的

JAVA爬虫 WebCollector

爬虫简介: WebCollector是一个无须配置.便于二次开发的JAVA爬虫框架(内核),它提供精简的的API,只需少量代码即可实现一个功能强大的爬虫. 爬虫内核: WebCollector致力于维护一个稳定.可扩的爬虫内核,便于开发者进行灵活的二次开发.内核具有很强的扩展性,用户可以在内核基础上开发自己想要的爬虫.源码中集成了Jsoup,可进行精准的网页解析. 量级: WebCollector最常用的爬取器BreadthCrawler使用2^24的布隆过滤器进行URL管理,可处理2^24量级

福利贴——爬取美女图片的Java爬虫小程序代码

自己做的一个Java爬虫小程序 废话不多说,先上图. 文件夹命名是用标签缩写,如果大家看得不顺眼可以等下载完成后手动改一下,比如像有强迫症的我一样... 这是挂了一个晚上下载的总大小,不过还有很多因为一些问题没有遍历下载到,而且会产生很多空文件,最下面我附带了一个递归删除空文件夹的小程序代码. 接下来是文件夹内部~ 图片存放位置默认为d:\picture,可在程序中更改,main函数的开头就是,有注释.爬取的网站为http://www.mmonly.cc/,大家有更好的资源网站可以私我. 爬虫源

春节不打烊网友实测:京东物流谎言被戳破

春节物流不打烊成为各大电商快递公司彰显自身服务能力的市场展示手段,京东今年就为春节壕掷7600万元保证物流配送能力,但却被微博网友暴出京东配送员不友好的一幕. 送货员不愿送货,让消费者自提,消费者未能自提,结果配送员就以超出5公里为由强制退单而引起消费者的不满情绪,若在平时这也不算什么大事,但放在春节期间,特别是京东几次三番强调春节配送不打烊,问题的严重性就升级了.这让前几日集中宣传春节物流的京东脸上无光,而且近日有很多网友在微博上抱怨京东春节配送不给力,说好的春节不打烊并未能做到. 有一.两次