php 抓取天气情况 www.weather.com.cn

<?php

function getweather($city){

	$url="http://www.weather.com.cn/weather1d/".$city.".shtml";
	$result=file_get_contents($url);

	$arr=explode("<li class='dn on' data-dn='todayT'>",$result);
	$arr1=explode("<div class=\"m m2\" id=\"2_3d\">",$arr[1]);

	$wt= mb_convert_encoding($arr1[0],"GBK","UTF-8");

	$wt1=explode("</i> </p>",$wt);

	$first=explode("</h1>",$wt1[0]);
	$w1_1=$first[0];
	//echo strip_tags($w1_1);//当前状态(第一个天气情况)
	$w1_2=explode("<p class=\"tem\">",$first[1]);
	//echo strip_tags($w1_2[0]);//天气
	//echo strip_tags($w1_2[1]);//温度

	$sec=explode("<h1>",$wt1[1]);
	$second=explode("</h1>",$sec[1]);
	$w2_1=$second[0];
	//echo strip_tags($w2_1);//当前状态(第二个天气情况)
	$w2_2=explode("<p class=\"tem\">",$second[1]);
	//echo strip_tags($w2_2[0]);//天气
	//echo strip_tags($w2_2[1]);//温度

	$weekday=array('天','一','二','三','四','五','六');
	$showtime=date("d号 星期").$weekday[date("w")];

	//first温度
	$firstwd=explode("°", trim(strip_tags($w1_2[1])));

	$str="[今天] ".$showtime.strip_tags($w1_1)."至".strip_tags($w2_1)." ".trim(strip_tags($w1_2[0]))."转".trim(strip_tags($w2_2[0]))." ".$firstwd[0]."/".trim(strip_tags($w2_2[1]));
	echo $str;
}
getweather(101120501);

?>

php 抓取天气情况 www.weather.com.cn

时间: 2025-01-11 20:36:18

php 抓取天气情况 www.weather.com.cn的相关文章

python抓取天气

程序很简单 根据url找到网站截取相应的数据. #!/usr/bin/env python import urllib2 import re provice=raw_input('input you provice') city=raw_input("input city:") url = "http://qq.ip138.com/weather/"+provice+"/"+city+".htm" #url = "h

爬虫scrapy抓取w3school课程列表

首先还是先创建scrapy项目,当然这都是在你安装scrapy之后啊,这个scrapy还是在linux系统下最省事,一行指令瞬间安装,这酸爽..... 言归正传啊,创建scrapy文件. <span style="font-size:14px;">scrapy startproject w3school</span> 之后可以查看一下,这个文件的结构,上一次抓取天气的时候还记得吗,我们采用的是tree命令. <span style="font-s

Hibernate之抓取策略

时间:2017-1-23 19:08 --区分延迟和立即检索 1.立即检索    当执行某行代码时,会马上发出SQL语句进行查询.    例如:get() 2.延迟检索    当执行某行代码时,不会马上发出SQL语句,只有当真正使用对象时,才会向数据库发出SQL语句.    例如:load() 3.示例代码    /* * 区分立即检索和延迟检索 */ public void fun1(){ Session session = HibernateUtils.openSession(); Tran

使用Jsoup抓取网页数据

Jsoup是一款Java的HTML解析器,可直接解析某个URL地址.HTML文本内容.它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据. 基本了解参考中文文档:http://www.open-open.com/jsoup/ 下面介绍一个具体例子: 比如我们要抓取:http://datacenter.mep.gov.cn/report/air_daily/air_dairy.jsp上某个时段的所有城市的天气信息并且保存为csv格式的文件. 在Chr

使用轻量级JAVA 爬虫Gecco工具抓取新闻DEMO

写在前面 最近看到Gecoo爬虫工具,感觉比较简单好用,所有写个DEMO测试一下,抓取网站 http://zj.zjol.com.cn/home.html,主要抓取新闻的标题和发布时间做为抓取测试对象.抓取HTML节点通过像Jquery选择器一样选择节点,非常方便,Gecco代码主要利用注解实现来实现URL匹配,看起来比较简洁美观. Gecoo GitHub地址 https://github.com/xtuhcy/gecco Gecoo 作者博客 http://my.oschina.net/u/

python爬虫抓取哈尔滨天气信息

python 爬虫 爬取哈尔滨天气信息 - http://www.weather.com.cn/weather/101050101.shtml 环境: windows7 python3.4(pip install requests:pip install BeautifulSoup4) 代码:(亲测可以正确执行) 1 # coding:utf-8 2 """ 3 总结一下,从网页上抓取内容大致分3步: 4 1.模拟浏览器访问,获取html源代码 5 2.通过正则匹配,获取指定

Python:使用 BeautifulSoup 库抓取百度天气

最近研究了Python的BeautifulSoup库,用起来还挺好玩的一.安装:使用pip命令在线安装:在cmd窗口中输入:pip install beautilfulsoup4 二.代码思路:1.使用request获取相关网页的返回值,即HTML对象: 方法一2.通过BeautifulSoup库对HTML页面元素进行解析,需要先分析要抓取的内容在哪里,再通过代码获取,存储在列表中:方法二3.读取列表中内容,写入到csv文件中.方法三 ```pythonfrom bs4 import Beaut

爬虫Scrapy学习指南之抓取新浪天气

scrapy有一个简单的入门文档,大家可以参考一下,我感觉官方文档是最靠谱的,也是最真实的. 首先我们先创建一个scrapy的项目 scrapy startproject weather 我采用的是ubuntu12.04的系统,建立项目之后主文件夹就会出现一个weather的文件夹.我们可以通过tree来查看文件夹的结构.可以使用sudoapt-get install tree安装. tree weather weather ├── scrapy.cfg ├── wea.json ├── wea

用Selenium抓取新浪天气

(1)用Selenium抓取新浪天气 系统环境: 操作系统:macOS 10.13.6 python :2.7.10 用虚拟环境实现 一.创建虚拟环境: mkvirtualenv --python=/usr/bin/python python_2 二.激活虚拟环境: workon python_2 三.安装Selenium pip install Selenium 四.安装firefox的Selenium补丁文件: brew install geckodriver 五.在~/.bash_prof