下载url地址的图片

// string url = "https://api.weixin.qq.com/cgi-bin/media/get?access_token=cNaaMfvhpb1vmcVRXRAdIjRX3eUFsk1sRVrbOaPkR-8Gbli4xJE22sI9uLaf3q_aCIesyUtZ7KC4WvOKN9XquxWCHviW5yqMDJxojm-MMHE&media_id=wcrGxYBc_CotfNILfPtIPZNZS8N4GGhSpAP561qKY1s2AWYZXgPAD6dekWgCrHjK";

string url = "http://mmbiz.qpic.cn/mmbiz/PwIlO51l7wuFyoFwAXfqPNETWCibjNACIt6ydN7vw8LeIwT7IjyG3eeribmK4rhibecvNKiaT2qeJRIWXLuKYPiaqtQ/0";
string path = @"D:\5555555555555555555555555.jpg";
// string file = string.Empty;
string content = string.Empty;
string strpath = string.Empty;
string savepath = string.Empty;

HttpWebRequest req = (HttpWebRequest)HttpWebRequest.Create(url);

req.Method = "GET";
using (WebResponse wr = req.GetResponse())
{
HttpWebResponse myResponse = (HttpWebResponse)req.GetResponse();
strpath = myResponse.ResponseUri.ToString();
WebClient mywebclient = new WebClient();
savepath = Server.MapPath("Images") + "\\" + DateTime.Now.ToString("yyyyMMddHHmmssfff") + (new Random()).Next().ToString().Substring(0, 4) + ".jpg";
try
{
mywebclient.DownloadFile(strpath, savepath);
// file = savepath;
}
catch (Exception ex)
{
savepath = ex.ToString();
}

}
// return file;

// WebClient WebClient = new WebClient();

//myWebClient.DownloadFile(myStringWebResource,fileName);
// WebClient.DownloadFile(address, "D::\\deeeeeeeeeeeeedd.png");
// Fcity.Core.FileSources.ChangeImageSize("D:\\QQ截图20141205121451.png", "D:\\ddd.png", 1000, 1000, ImageFormat.Jpeg);

return;

时间: 2024-10-29 00:09:10

下载url地址的图片的相关文章

根据图片url地址获取图片的宽高

1 /** 2 * 根据img获取图片的宽高 3 * @param img 图片地址 4 * @return 图片的对象,对象中图片的真实宽高 5 */ 6 public BufferedImage getBufferedImage(String imgurl) { 7 URL url = null; 8 InputStream is = null; 9 BufferedImage img = null; 10 try { 11 url = new URL(imgurl); 12 HttpURL

在C#中使用正则表达式筛选出图片URL并下载图片URL中的图片到本地

本功能主要用到的知识点如下: 1.正则表达式 2.C#中下载文件功能的实现 3.泛型集合的使用 4.进程的简单操作(用于结束当前程序) 下面就简单说一下是如何使用这些知识点的.先详细说下这个程序主要实现的功能是什么,现有一个文本文件里面都是从网页上复制下来的源代码.现需要将其中的以http.https.ftp开头,以.jpg,.png,.gif开头的图片URL地址筛选出来,并去访问这些链接,将URL中所对应的图片下载下来.经过分析后.决定使用正则表达式筛选URL地址.并使用WebClient类去

验证url 地址是否是图片

由于正则不是很熟悉 所以面对这样的目前只能采取两步走 一 判断url地址是否是正确的http 二判断后缀是否是图片 格式 /驗證URL function validUrl(strUrl){ strUrl = strUrl.match(/http:\/\/.+/); alert(strUrl); if(strUrl==null) return false; else return true; } //驗證上传图片格式 function valiImgType(str){ if(!/\.(gif|j

爬虫下载百度贴吧图片

本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励 在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie 爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0 #-*- coding:utf-8 -*-import urllib2import reimport requestsfrom lxml import etree 这些是要导入的库,代码并没有使用正则,使用的

使用Python下载妹子图网站图片

最近在学习Python的爬虫部分.看到有网友在分享使用爬虫爬取各种网站的图片的代码,也想自己写个玩玩.今天花时间分析了一下妹子图网站的结构和HTML代码,使用urllib2和BeautifulSoup写出了一个自动下载妹子图网站图片的脚本. 妹子图网址:http://www.mzitu.com 运行效果如下: 源代码如下,请各位大神指教: # -*- coding:utf8 -*- # Python:         2.7.8 # Platform:       Windows # Autho

Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片

Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片 其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用简书的图片,在博客园不能用 CSDN 的图片. 当前想到的方案就是:先把 CSDN 上的图片都下载下来,再手动更新吧. 所以简单写了一个爬虫用来下载 CSDN 平台上的图片,用于在其他平台上更新图片时用 更多内容,请看代码注释 效果演示 Python 源代码 提示: 需要先下载 BeautifulSoup 哦,

获取经过跳转后的url地址

粗略一算,不写code已经好几个月了. 昨日受兄弟所托,为他写了一个小小的程序. 程序功能: 自动获取跳转后的Url地址 如下图所示: (newUrl.txt为转换后的地址信息...) 实现过程: 每读一行数据,就new了一个webbrowser,然后指定其url,接着,在文档加载完毕之后,获取起url地址(则为最终地址). 优点:没有...用来滥竽充数的.. 缺点: 1.webbrowser很吃内存.我只是随便测试200条数据,就吃了我几G内存. 2.用的是winform,本人的系统为win8

Javascript验证用户输入URL地址是否正确

<script type="text/javascript">function checkUrl() { var url = document.getElementById('url').value; if (url==''){ alert('URL 地址不能为空'); return false; } else if (!isURL(url)) { alert('URL 的格式应该是 http://www.111cn.net'); return false; } else

java版模拟浏览器下载百度动漫图片到本地。

1 package javaNet.Instance.ImageDownload; 2 3 import java.io.BufferedReader; 4 import java.io.File; 5 import java.io.FileOutputStream; 6 import java.io.IOException; 7 import java.io.InputStream; 8 import java.io.InputStreamReader; 9 import java.net.M