Python爬取双色球,妈妈再也不会担心我是穷逼了

一、概况

一般大家都能会有个财富自由、时间自由的梦想。除了我们勤奋努力外,有些人运气比较好,买了一注彩票,瞬间会走上人生巅峰。彩票确实让有些人实现了这个梦想,但是这个概率太低了,低到无法想象。所以我们还是努力奋斗,做一个追梦人吧!

我们今天就爬取有史以来所有的双色球数据,看看这些年哪些数字出现的次数比较高。有的小伙伴可能不知道双色球是什么?双色球顾名思义就是两种颜色的球,一个红色,一个蓝色。红球从1-33中取出6个,篮球从1-16取出1个,如果你买的跟开奖号码一样,恭喜你几百万到手。

二、分析网站

我们今天准备爬取的网站叫500彩票https://www.500.com/
这个网站有很多彩票的开奖信息,我们找到全国开奖这个导航(https://kaijiang.500.com/)![开奖信息](http://upload-images.jianshu.io/upload_images/2137700-f32b9cb750660693?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
在这我们可以查询任何的彩票开奖信息:

[图片上传失败...(image-1a159b-1552913915614)]
我们选择双色球,并打开浏览器调试:


可以看出来是一个ajax(https://kaijiang.500.com/static/info/kaijiang/xml/ssq/list.xml?_A=ERICBJLA1552888430108
请求,并且返回很多的xml信息。信息里面包括了有史以来所有双色球的开奖号码信息。数据有了,我们完全可以用正则表达式把我们想要的数据提取出来,然后保存到数据库。

三、逻辑实现

我们在本地先创建好数据库,我们要的信息只有三个:

  • 红球
  • 篮球
  • 日期
    代码比较简单:
import requests
import re
import pymysql

# 请求地址
url = ‘http://kaijiang.500.com/static/info/kaijiang/xml/ssq/list.xml?_A=BLWXUIYA1546584359929‘

# 数据库连接
connection = pymysql.connect(host=‘localhost‘,
                             user=‘root‘,
                             password=‘123456‘,
                             db=‘db_shuangseqiu‘, )
# 获取游标对象
cursor = connection.cursor()

# 请求头
headers = {
    ‘User-Agent‘: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36‘
}
# 发起请求
reponse = requests.get(url=url, headers=headers)

# 正则规则
pattern = re.compile(r‘<row.*?opencode="(.*?)".*?opentime="(.*?)"‘)

# 双色球数据
ssq_data = pattern.findall(reponse.text)

# (‘10,11,12,13,26,28|11‘, ‘2003-02-23 00:00:00‘)
for data in ssq_data:#处理数据
    info, date = data
    red, blue = info.split("|")

    #插入数据
    sql = """

       INSERT INTO ssq_info(red,blue,date)values (%s,%s,%s) 

       """
    try:
        cursor.execute(sql, [red, blue, date])
        connection.commit()
    except Exception as e:
        connection.rollback()

从2003年第一个双色球开始,我们本地一共有2389条开奖数据。

[图片上传失败...(image-afcbef-1552913915614)]

四、统计

我们来统计一下这些年红球1-33出现的次数和篮球1-16出现的次数,通过matplotlib绘制成柱形统计图。在绘制前,我们得先从数据库中把红球和篮球出现的次数统计出来。

import pymysql
import matplotlib
matplotlib.use(‘TkAgg‘)
import matplotlib.pyplot as plt
import numpy as np
# 数据库连接
connection = pymysql.connect(host=‘localhost‘,
                             user=‘root‘,
                             password=‘123456‘,
                       db=‘db_shuangseqiu‘, )
# 获取游标对象
cursor = connection.cursor()

reds_count = [] #1-33红球所有个数
blues_count = [] #1-16篮球所有个数

def getdata():
    sql = ‘select * from ssq_info‘
    cursor.execute(sql)
    results = cursor.fetchall()#获取全部数据

    blues = []#所有红球个数
    reds = []#所有篮球个数
    for row in results :
        red = row[1]
        blue = row[2]
        red_list = red.split(",")#把查询的红球进行以,分割 ["01","02","03","04","05","06"]

        reds.extend(red_list)
        blues.append(blue)

    global reds_count,blues_count
    #统计所有出现红球的个数
    for i in range(1,34):
        reds_count.append(reds.count(str(i).zfill(2)))

    # 统计所有出现篮球的个数
    for i in range(1,17):
        blues_count.append(blues.count(str(i).zfill(2)))

    # redstatistics()
    # bluestatistics()

#添加标签
def autolabel(rects):
    for rect in rects:
        height = rect.get_height()
        plt.text(rect.get_x()-rect.get_width()/4, 1.02*height, "%s" % int(height))

#红球统计图
def redstatistics():

    width=0.35
    index = np.arange(1, 34)
    y = reds_count
    y1 = np.array(y)
    x1 = index + 1
    fig = plt.figure()
    ax1 = fig.add_subplot(111)
    rect = ax1.bar(x1, y1, width, facecolor=‘#9999ff‘, edgecolor=‘white‘)
    x = [str(i) for i in range(1,34)]
    plt.xticks(index+1+width/20, x)
    plt.ylim(0, 500)
    autolabel(rect)

    ax1.xaxis.set_ticks_position(‘bottom‘)
    l1 = ax1.legend(loc=(.02,.92), fontsize=16)
    plt.show()

# 篮球统计图
def bluestatistics():
    width = 0.35
    index = np.arange(1, 17)
    y = blues_count
    y1 = np.array(y)
    x1 = index + 1
    fig = plt.figure()
    ax1 = fig.add_subplot(111)
    rect = ax1.bar(x1, y1, width, facecolor=‘#9999ff‘, edgecolor=‘white‘)
    x = [str(i) for i in range(1, 17)]
    plt.xticks(index + 1 + width / 20, x)
    plt.ylim(0, 500)
    autolabel(rect)

    ax1.xaxis.set_ticks_position(‘bottom‘)
    l1 = ax1.legend(loc=(.02, .92), fontsize=16)
    plt.show()

if __name__ == ‘__main__‘:
    getdata()

最后我们统计红球的柱形图统计图:

能看出来红球除了24和33,其余出现都超过了400次,出现次数还是比较平均的。

篮球就8出现的次数比较少一点,也看不出来什么门道。

五、总结

通过统计图也看不出来什么,双色球根本就是毫无规律可言。能学到的知识是爬虫和制图。所以基本靠双色球实现财富自由很难,但运气这种东西谁又说的好呢,所以我给大家精选了一注:
双色球:06,09,12,24,29,31+12,周二晚上21:15开奖。
只要还买得起一注双色球,人生就不至于绝望。最后祝愿大家早日实现财富自由,走上人生巅峰。

原文地址:https://blog.51cto.com/13613284/2473352

时间: 2024-11-01 10:50:28

Python爬取双色球,妈妈再也不会担心我是穷逼了的相关文章

使用python爬取csdn博客访问量

最近学习了python和爬虫,想写一个程序练练手,所以我就想到了大家都比较关心的自己的博客访问量,使用python来获取自己博客的访问量,这也是后边我将要进行的项目的一部分,后边我会对博客的访问量进行分析,以折线图和饼图等可视化的方式展示自己博客被访问的情况,使自己能更加清楚自己的哪些博客更受关注,博客专家请勿喷,因为我不是专家,我听他们说专家本身就有这个功能. 一.网址分析 进入自己的博客页面,网址为:http://blog.csdn.net/xingjiarong 网址还是非常清晰的就是cs

python爬取某个网站的图片并保存到本地

python爬取某个网站的图片并保存到本地 #coding:utf-8 import urllib import re import sys reload(sys) sys.setdefaultencoding('gb2312') #获取整个页面的数据 def getHtml (url): page = urllib.urlopen(url) html = page.read() return html #保存图片到本地 def getImg(html): reg = r'src="(.+?\.

python爬取某个网页的图片-如百度贴吧

python爬取某个网页的图片-如百度贴吧 作者:vpoet 日期:大约在冬季 注:随意copy,不用告诉我 #coding:utf-8 import urllib import urllib2 import re if __name__ =="__main__": rex=r'src="(http://imgsrc.baidu.com/forum/w%3D580.*?\.jpg)"'; Response=urllib2.urlopen("http://t

使用python爬取MedSci上的影响因子排名靠前的文献

使用python爬取medsci上的期刊信息,通过设定条件,然后获取相应的期刊的的影响因子排名,期刊名称,英文全称和影响因子.主要过程如下: 首先,通过分析网站http://www.medsci.cn/sci的交互过程.可以使用谷歌或火狐浏览器的“审查元素-->Network”,然后就可以看到操作页面就可以看到网站的交互信息.当在网页上点击“我要查询”时,网页会发送一个POST消息给服务器,然后,服务器返回查询结果 然后,将查询到的结果使用正则表达式提取出需要的数据. 最后将提取出的数据输出到文

Python爬取网页的三种方法

# Python爬取网页的三种方法之一:  使用urllib或者urllib2模块的getparam方法 import urllib fopen1 = urllib.urlopen('http://www.baidu.com').info() fopen2 = urllib2.urlopen('http://www.sina.com').info() print fopen1.getparam('charset') print fopen2.getparam('charset') #----有些

Python爬取京东商品数据

对京东某一商品信息页面的HTML代码进行分析,可以发现它的图书产品信息页面都含有这样一段代码(不同类的商品页面有些不同): window.pageConfig={compatible:true,searchType: 1,product:{"skuid":"11408255","name":"\u4f17\u795e\u7684\u536b\u661f\uff1a\u4e2d\u56fd\u7981\u533a","

Python 爬取广州商学院新闻----测试版

Python 爬取广州商学院新闻----测试版 程序简述:抓取广州商学院新闻栏目的全部新闻内容 开发环境:PyCharm Community Edition 爬取连接:http://news.gzcc.cn/ 作者:siberia 详细内容:http://easyboy1.blog.163.com/blog/static/2641120382017103105416810/ 详细内容:http://easyboy1.blog.163.com/blog/static/264112038201710

利用Python爬取豆瓣电影

目标:使用Python爬取豆瓣电影并保存MongoDB数据库中 我们先来看一下通过浏览器的方式来筛选某些特定的电影: 我们把URL来复制出来分析分析: https://movie.douban.com/tag/#/?sort=T&range=0,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE 有3个字段是非常重要的: 1.sort=T 2.range=0,10 3.tag

python爬取百度翻译返回:{&#39;error&#39;: 997, &#39;from&#39;: &#39;zh&#39;, &#39;to&#39;: &#39;en&#39;, &#39;query 问题

解决办法: 修改url为手机版的地址:http://fanyi.baidu.com/basetrans User-Agent也用手机版的 测试代码: # -*- coding: utf-8 -*- """ ------------------------------------------------- File Name: requestsGet Description : 爬取在线翻译数据s Author : 神秘藏宝室 date: 2018-04-17 --------