python扒取百宝彩网站江西快三当日期号及开奖结果

一、环境

windows10+python27

二、需求:

1、获取百宝彩网站中,江西快三当日的开奖期号和中奖号码;

2、根据输入期号,输出开奖号码;

三、上代码

 1 #!/bin/env python
 2 # coding=utf-8
 3
 4 import urllib2
 5 import time
 6 import re
 7
 8
 9 class GetK3Issue:
10     """
11     获取百宝彩网站快三当日输入的期号
12     """
13     def __init__(self, url=0, page=0, sys_time=0):
14         """
15         初始化参数
16         """
17         self.url = url
18         self.page = page
19         self.sys_time = sys_time
20
21     def get_url_page(self):
22         """
23         获取页面返回元素
24         """
25         self.sys_time = time.strftime(‘%Y-%m-%d‘, time.localtime(time.time()))
26         self.url = ‘http://www.baibaocp.com/ks/history/lotid/10412/date/%s‘ % self.sys_time
27         self.page = urllib2.urlopen(self.url).read().decode(‘utf8‘)
28         return self.page
29
30     def get_issue(self):
31         """
32         从页面返回元素中提取开奖期号
33         """
34         issue_list = []
35         page = self.get_url_page()
36         RE = re.compile(ur‘<tr num=\‘\d{9}‘)
37         element_list = re.findall(RE, page)
38         for element in element_list:
39             issue = str(element[9:18])
40             issue_list.append(issue)
41         return list(issue_list)
42
43     def get_winning_numbers(self):
44         """
45         从页面返回元素中获取开奖号码
46         """
47         numbers_list = []
48         group_numbers_list = []
49         page = self.get_url_page()
50         RE = re.compile(ur"class=‘history_drawnumber‘><span>.*</span>")
51         element_numbers_list = re.findall(RE, page)
52         list_a = str(element_numbers_list)
53         RE2 = re.compile(ur‘\d{1}</span>‘)
54         numbers_str = re.findall(RE2, list_a)
55         for dangezhi in numbers_str:
56             numbers = dangezhi[0]
57             numbers_list.append(numbers)
58
59         i = 0
60         while True:
61             j = i + 3
62             winning_numbers = numbers_list[i:j]
63             i = j
64             if j >= len(numbers_list)+3:
65                 break
66             group_numbers_list.append(winning_numbers)
67         return group_numbers_list
68
69     def result_dict(self):
70         """
71         合并期号和开奖号码列表,返回字典
72         """
73         issue = self.get_issue().__iter__()
74         result = dict(zip(issue, self.get_winning_numbers()))
75         return result
76
77     def get_issue_by_dict(self):
78         """
79         通过输入期号查找开奖号码
80         """
81         input_issue = str(raw_input(u‘请输入你想要查询的期号: ‘))
82         result_list = self.result_dict()
83         if input_issue in result_list:
84             number = result_list[input_issue]
85             print ‘今日第%s期开奖结果是:%s‘ % (input_issue, number)
86         else:
87             print ‘输入期号有误!!!‘
88
89 if __name__ == ‘__main__‘:
90     run = GetK3Issue()
91     run.get_issue_by_dict()

时间: 2024-10-07 17:52:26

python扒取百宝彩网站江西快三当日期号及开奖结果的相关文章

如何用 Python 爬取需要登录的网站?

最近我必须执行一项从一个需要登录的网站上爬取一些网页的操作.它没有我想象中那么简单,因此我决定为它写一个辅助教程. 在本教程中,我们将从我们的bitbucket账户中爬取一个项目列表. 教程中的代码可以从我的 Github 中找到. 我们将会按照以下步骤进行: 提取登录需要的详细信息 执行站点登录 爬取所需要的数据 在本教程中,我使用了以下包(可以在 requirements.txt 中找到): Python 1 2 requests lxml 步骤一:研究该网站 打开登录页面 进入以下页面  

python 爬取淘宝模特信息

通过本篇博文,介绍一下我对指定信息进行爬取的时候的思路,顺便贴一下代码. 一.首先获取想要爬取的网站的url链接的规则变化 可以看出来该网站页面的url结构简单,变化的只是https://mm.taobao.com/json/request_top_list.htm?page= page的值 二.对网站页面的DOM树的结构进行分析,方便我们获取我们想要的内容信息, 我写了个简单的网页分析脚本analyze.py:用来输出DOM树,方便我后面做筛选. # -*- coding:utf-8 -*-

如何用 Python 爬取需要登录的网站

[原文地址:]http://python.jobbole.com/83588/ import requests from lxml import html # 创建 session 对象.这个对象会保存所有的登录会话请求. session_requests = requests.session() # 提取在登录时所使用的 csrf 标记 login_url = "https://bitbucket.org/account/signin/?next=/" result = sessio

python爬取安居客二手房网站数据(转)

之前没课的时候写过安居客的爬虫,但那也是小打小闹,那这次呢, 还是小打小闹 哈哈,现在开始正式进行爬虫书写 首先,需要分析一下要爬取的网站的结构: 作为一名河南的学生,那就看看郑州的二手房信息吧! 在上面这个页面中,我们可以看到一条条的房源信息,从中我们发现了什么,发现了连郑州的二手房都是这么的贵,作为即将毕业的学生狗惹不起啊惹不起 还是正文吧!!! 由上可以看到网页一条条的房源信息,点击进去后就会发现: 房源的详细信息. OK!那么我们要干嘛呢,就是把郑州这个地区的二手房房源信息都能拿到手,可

使用python爬取淘宝商品名称和价格

最近在家闲得无聊,由于家里开网点,妈妈对于起商品标题感到很头痛,所以我就想在淘宝爬取一些信息. 小破站找了个学习视频,跟一遍发现视频是2018年的,而淘宝在2019年可能加入了反爬取机制,使用正常的方法爬不到结果. 但是有一种方式可以爬取,要先登陆淘宝网页版,然后去搜索,获取cookie和user-agent. 代码如下: import requests import re def getHTMLText(url): kv = {'cookie':'cna=54y8Fm+TyioCATzcP+B

python 爬取淘宝的模特照片

前段时间花了一部分时间学习下正则表达式,总觉得利用正则要做点什么事情,所以想通过爬取页面的方式把一些美女的照片保存下来,其实过程很简单. 1.首先读取页面信息: 2.过滤出来照片的url地址: 3.通过URL地址来保存图片: #-*-coding:utf-8 -*- '''爬取评论区的美女照片''' import requests import re RE_PICTURE_NAME = re.compile(r'(\w)+\.[A-Za-z]+$') RE_URL = re.compile(r'

Python 爬取淘宝商品信息和相应价格

!只用于学习用途! plt = re.findall(r'\"view_price\"\:\"[\d\.]*\"',html) :获得商品价格和view_price字段,并保存在plt中 tlt = re.findall(r'\"raw_title\"\:\".*?\"',html) :获得商品名称和raw_price字段,并保存在tlt中 price = eval(plt[i].split(':')[1]) :使用冒号分隔键

python扒取c++视频示例

#!/usr/bin/pytyon # -*- coding:utf-8 -*- import re import urllib vurl = 'http://www.enet.com.cn/eschool/video/c++/' domain = 'http://www.enet.com.cn' def getVideoList(vurl): #find all c++ url html = urllib.urlopen(vurl).read() reg = r'href="(/eschool

利用Python爬虫爬取淘宝商品做数据挖掘分析实战篇,超详细教程

项目内容 本案例选择>> 商品类目:沙发: 数量:共100页  4400个商品: 筛选条件:天猫.销量从高到低.价格500元以上. 项目目的 1. 对商品标题进行文本分析 词云可视化 2. 不同关键词word对应的sales的统计分析 3. 商品的价格分布情况分析 4. 商品的销量分布情况分析 5. 不同价格区间的商品的平均销量分布 6. 商品价格对销量的影响分析 7. 商品价格对销售额的影响分析 8. 不同省份或城市的商品数量分布 9.不同省份的商品平均销量分布 注:本项目仅以以上几项分析为