百度图片

import requests

from bs4 import BeautifulSoup

import urllib.request

import urllib.parse

import os

import re

import sys

j=0

keyword=input("请输入搜索信息:")#输入我们需要查询的信息

n=0#图片数

url=‘https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=0&word=word&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&cg=girl&pn=60&rn=rn&gsm=1e&1492587352169=‘

while(n<30*100):#当图片小于3000时,一直循环

n=n+30#分析网页得,大约每网页有图片30,,所以每次加30。等于换页

all_url=url.format(word={keyword},rn={str(n)})#获取搜寻图片的每页链接

headers=\

{

"user-agent":"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36",

"Referer":all_url

}

html=requests.get(all_url,headers=headers)#获取图片的某页全部信息

content=html.text

all_jpg=re.findall(r"thumbURL.+?jpg",content)#用正则表达式搜索我们需要的图片信息

if os.path.isdir("E:\Python\Pythonprogram\百度美女图")!=True:#如果保存的路径不存在

os.makedirs(r"E:\Python\Pythonprogram\百度美女图")#如果不存在。我们将创立这个路径

with open("test.txt","w") as f:#打开一个文本文件

for jpg in all_jpg:#遍历所有的图片

jpg=jpg.replace("thumbURL\":\"","")#将图片链接替换为空

print(jpg)

f.write(jpg)#将图片链接写入文件

f.write(‘\n‘)

try:

with open("E:\Python\Pythonprogram\百度美女图\pic"+str(j)+".jpg","ab") as fp:#打开文件夹

print(requests.get(jpg,headers=headers).content)

fp.write(requests.get(jpg,headers=headers).content)#保存图片到路径

#urllib.request.urlretrieve(jpg,"E:\Python\Pythonprogram\百度美女图\pic"+str(j)+".jpg")

j+=1

except Exception as e:

pass

时间: 2024-08-04 09:12:48

百度图片的相关文章

【Python网络爬虫四】多线程爬取多张百度图片的图片

最近看了女神的新剧<逃避虽然可耻但有用> 被大只萝莉萌的一脸一脸的,我们来爬一爬女神的皂片. 百度搜索结果:新恒结衣 1.下载简单页面 通过查看网页的html源码,分析得出,同一张图片共有4种链接: {"thumbURL":"http://img5.imgtn.bdimg.com/it/u=2243348409,3607039200&fm=23&gp=0.jpg", "middleURL":"http://i

基于C#百度图片批量下载工具的实现

在家没网,无聊怎么办?不如来看点美女图片吧,网络快时批量下载,有空时慢慢看,嘿嘿,本人是个好人.于是这个工具的实现,那简直是迫在眉睫啊,来看看是怎么实现的吧. 先上图片吧: 这是软件的WinForm界面,基于C#实现. 上代码,也就100多行. using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using Sys

自己动手写工具:百度图片批量下载器

开篇:在某些场景下,我们想要对百度图片搜出来的东东进行保存,但是一个一个得下载保存不仅耗时而且费劲,有木有一种方法能够简化我们的工作量呢,让我们在离线模式下也能爽爽地浏览大量的美图呢?于是,我们想到了使用网络抓取去帮我们去下载图片,并且保存到我们设定的文件夹中,现在我们就来看看如何来设计开发一个这样的图片批量下载器. 一.关于网络抓取与爬虫 网络蜘蛛的主要作用是从Internet上不停地下载网络资源.它的基本实现思想就是通过一个或多个入口网址来获取更多的URL,然后通过对这些URL所指向的网络资

php应用篇-百度图片的防盗链

众所周知,一个网站如果的图片流量很占用网络带宽,因此,防止图片的被盗连就显得重中之重.这里,简单讲解下百度如何防止图片的盗链的原理,接着介绍下如何通过php来盗取图片,正所谓,道高一尺魔高一丈,防守和进攻总是不断地相互促进发展. 首先,简单介绍下盗链,按照百度百科的介绍"盗链是指服务提供商自己不提供服务的内容,通过技术手段绕过其它有利益的最终用户界面(如广告),直接在自己的网站上向最终用户提供其它服务提供商的服务内容,骗取最终用户的浏览和点击率.受益者不提供资源或提供很少的资源,而真正的服务提供

百度图片api

百度图片api 转载请注明出处:http://blog.csdn.net/yuanwofei/article/details/16343743 一.通用api http://image.baidu.com/i?tn=resultjson&ie=utf-8&word=刘德华&pn=0&rn=10 http://image.baidu.com/i?tn=baiduimagejson&width=&height=&word=girl&rn=10&a

百度图片爬虫

功能说明:依次输入keyword.開始页码,结束页码(每页6张图) 当中,因为设定了timeout和其它错误检測,所以每页不一定6张都能爬下来. 有需求的拿去爬图用吧,仅供交流參考.不要乱爬,以免百度专门封堵.想用的都用不了了. 以后假设有时间再用pyqt做成界面吧. 代码例如以下: #!/usr/bin/env python #! -*- coding: utf-8 -*- import urllib,urllib2 import re import time #返回网页源码 def getH

PHP反向代理-百度图片

最近在一些开发中需要调用百度贴吧等一系列的百度图片 但是防盗链实在讨厌 于是就简单利用curl实现了反向代理(应该是这么叫的) 如果网站直接调用百度图片 会出现如下(博客园貌似在白名单 可以直接用百度链接 ...) 实际上这张图为(随便找的图) php代码如下: //img.php<?php if(!isset($_GET["url"])) { $url='http://g.hiphotos.baidu.com/zhidao/wh%3D450%2C600/sign=4d275dc

java实现批量下载百度图片搜索到的图片

就是写的个小程序,用于记录一下,方便后续查看,首先感谢下面这个博客,从这篇文章衍生的吧,大家可以学习下: http://www.cnblogs.com/lichenwei/p/4610298.html 读了这边文章,觉得很有意思,就模仿着写了个,从百度图片所有并下载到本地,主要思路是一样的. 贴下代码: package com.guo.common; import java.io.BufferedReader; import java.io.BufferedWriter; import java

C#百度图片识别API调用返回数据包解析

百度图片识别api接口 public static JObject GeneralBasic(string apikey,string secretkey,string path) { var client = new Baidu.Aip.Ocr.Ocr(apikey, secretkey); var image = File.ReadAllBytes(path); // 通用文字识别 var result = client.GeneralBasic(image, null); return r

【Python网络爬虫四】通过关键字爬取多张百度图片的图片

最近看了女神的新剧<逃避虽然可耻但有用>,同样男主也是一名程序员,所以很有共鸣 被大只萝莉萌的一脸一脸的,我们来爬一爬女神的皂片. 百度搜索结果:新恒结衣 本文主要分为4个部分: 1.下载简单页面 2.爬取多张图片 3.页面解码 4.爬取过程排错处理 1.下载简单页面 通过查看网页的html源码,分析得出,同一张图片共有4种链接: {"thumbURL":"http://img5.imgtn.bdimg.com/it/u=2243348409,3607039200