Bing爬虫源码

BingBong架构采用MFC处理UI搭建、配置处理,Python实现爬虫模块的架构。调用时将对应的参数传入爬虫模块,随后爬虫开始下载。

Python代码相对简单,耗时的反而是找各种第三库的资料啊~

#!C:\Python27\python
# -*- coding: utf-8 -*-
import string,urllib2,re,time,sys
import win32api, win32con, win32gui
import Image

#主函数
def BingBong(path,cho):
    response = urllib2.urlopen(‘http://cn.bing.com/‘)
    html = response.read()

    pattern = re.compile( r‘http://s.cn.bing.net‘ + ‘.*?\.jpg‘ )
    match = pattern.search( html )

    if match:
        #print u‘图片搜索成功!‘
        #print match.group()
        conn = urllib2.urlopen( match.group() )
        Date = time.strftime(‘%Y-%m-%d‘,time.localtime(time.time()))
        jpgPath = path + Date + ‘.jpg‘
        f = open( jpgPath,‘wb‘ )
        f.write(conn.read())
        f.close()

        if cho:
            setWallPaper( jpgPath,sys.argv[3] )

        #print u‘图片已保存!‘
    else:
        print u‘图片搜索失败!‘

def setWallpaperFromBMP(imagepath):
    k = win32api.RegOpenKeyEx(win32con.HKEY_CURRENT_USER,"Control Panel\\Desktop",0,win32con.KEY_SET_VALUE)
    win32api.RegSetValueEx(k, "WallpaperStyle", 0, win32con.REG_SZ, "2") #2拉伸适应桌面,0桌面居中
    win32api.RegSetValueEx(k, "TileWallpaper", 0, win32con.REG_SZ, "0")
    win32gui.SystemParametersInfo(win32con.SPI_SETDESKWALLPAPER,imagepath, 1+2)

    # convert jpg to bmp
def setWallPaper(imagePath,SavePath):
    bmpImage = Image.open(imagePath)
    #newPath = imagePath.replace(‘.jpg‘, ‘.bmp‘)
    bmpImage.save(SavePath, "BMP")
    setWallpaperFromBMP(SavePath)

#print u‘请输入保存图片的路径:‘
path = sys.argv[1]
cho = int(sys.argv[2])

BingBong(path,cho)
时间: 2024-10-29 10:46:10

Bing爬虫源码的相关文章

瓜子二手车爬虫源码

/*使用javascript编写的爬虫源码,用于爬取瓜子二手车上的二车手信息. 代码粘贴到神箭手云爬虫平台(http://www.shenjianshou.cn/)上就可以直接跑了, 不需要安装编译环境.要爬取其他网站,可以更改源码即可. 代码执行具体步骤点这里 更多源码下载点这里 */ var scanUrl = "http://www.guazi.com/hz/buy/";//@input(scanUrl, 入口url, 请输入一个需爬取城市的url,格式为:“http://www

沪商财富爬虫源码

使用javascript编写的爬虫源码,用于爬取沪商财富网上的商品信息. 代码粘贴到神箭手云爬虫平台(http://www.shenjianshou.cn/)上就可以直接跑了, 不需要安装编译环境.要爬取其他网站,可以更改源码即可. 代码执行具体步骤点这里 代码详细讲解点这里 更多源码下载点这里 var configs = { domains: ["www.hushangcaifu.com"], scanUrls: ["http://www.hushangcaifu.com/

尚妆网爬虫源码

使用javascript编写的爬虫源码,用于爬取尚妆网上的商品信息. 代码粘贴到神箭手云爬虫平台(http://www.shenjianshou.cn/)上就可以直接跑了, 不需要安装编译环境.要爬取其他网站,可以更改源码即可. 代码执行具体步骤点这里 代码详细讲解点这里 更多源码下载点这里 var configs = { domains: ["www.showjoy.com","list.showjoy.com","item.showjoy.com&qu

自动抓取163新闻的Python爬虫源码

Python爬虫的学习,自动抓取163新闻的Python爬虫源码,这是一个用Python语言编写的,自动抓取网易新闻的python爬虫实现方法一文. Python爬虫的抓取思路是:(1)通过分析目标新闻网址 ,分析其中以News.xxx.com 开头的链接(2)获取每一个链接的内容,并做整理合并到事前准备好的.txt 文本中,以便查看各新闻.但是需要注意的是:由于今天的测试对象,网易新闻的格式不是非常统一,所有会有部分漏掉的情况,还能大家见谅.也希望有能力的朋友们帮着改进一下. 自动抓取163新

提供一份爬虫源码,叫我雷锋

#coding=utf-8from Tkinter import * #GUI(图像用户界面)模块from ScrolledText import ScrolledText #文本滚动条import urllib,requests #请求模块import re #正则表达式import threading #多线程处理与控制url_name = []#url+namea = 1#页码def get(): global a #全局变量 hd = {'User-Agent':'Mozilla/5.0

豌豆荚游戏排行榜爬虫源码

var configs = { domains: ["apps.wandoujia.com"], scanUrls: ["http://apps.wandoujia.com/api/v1/apps?type=weeklytopgame&max=12&start=0"], contentUrlRegexes: ["http://www\\.wandoujia\\.com/apps/.*"], helperUrlRegexes: [&

大量 python 爬虫源码分享--说说 python 爬虫这件小事

没有爬虫就没有互联网,越来越觉得写 Python 爬虫原来是一件快乐而高兴的事情,以下是本人收集整理的一批 python 爬虫代码,顺便分享到了别的网站上,喜欢的下下来看看吧. 内容: yunpan.360.cn.py 360 网盘爬虫 ed2k_search.py 电驴爬虫 music.163.com.py 163 音乐爬虫 music.baidu.com.py 百度音乐爬虫 pan.baidu.com.py 百度网盘爬虫 115.py 115 爬虫 91porn.py 91porn 爬虫 等

Python 爬虫入门(三)—— 寻找合适的爬取策略

写爬虫之前,首先要明确爬取的数据.然后,思考从哪些地方可以获取这些数据.下面以一个实际案例来说明,怎么寻找一个好的爬虫策略.(代码仅供学习交流,切勿用作商业或其他有害行为) 1).方式一:直接爬取网站 目标网址:http://chanyouji.com/ 注意:这个网站会拦截IP,访问次数过多,IP会被封,所以,上节的IP代理就用到了. a).打开网页,可以看到这是一个游记类的网站,里面有很多人分享的游记.那我们就爬这些游记.说不定以后有时间出去玩的时候可以用到. b).点开其中一篇游记,可以看

Python爬虫入门教程 13-100 斗图啦表情包多线程爬取

写在前面 今天在CSDN博客,发现好多人写爬虫都在爬取一个叫做斗图啦的网站,里面很多表情包,然后瞅了瞅,各种实现方式都有,今天我给你实现一个多线程版本的.关键技术点 aiohttp ,你可以看一下我前面的文章,然后在学习一下. 网站就不分析了,无非就是找到规律,拼接URL,匹配关键点,然后爬取. 撸代码 首先快速的导入我们需要的模块,和其他文章不同,我把相同的表情都放在了同一个文件夹下面,所以需要导入os模块 import asyncio import aiohttp from lxml imp