pytorch预训练模型的下载地址以及解决下载速度慢的方法

https://github.com/pytorch/vision/tree/master/torchvision/models

几乎所有的常用预训练模型都在这里面

总结下各种模型的下载地址:

 1 Resnet:
 2
 3 model_urls = {
 4     ‘resnet18‘: ‘https://download.pytorch.org/models/resnet18-5c106cde.pth‘,
 5     ‘resnet34‘: ‘https://download.pytorch.org/models/resnet34-333f7ec4.pth‘,
 6     ‘resnet50‘: ‘https://download.pytorch.org/models/resnet50-19c8e357.pth‘,
 7     ‘resnet101‘: ‘https://download.pytorch.org/models/resnet101-5d3b4d8f.pth‘,
 8     ‘resnet152‘: ‘https://download.pytorch.org/models/resnet152-b121ed2d.pth‘,
 9 }
10
11 inception:
12
13 model_urls = {
14     # Inception v3 ported from TensorFlow
15     ‘inception_v3_google‘: ‘https://download.pytorch.org/models/inception_v3_google-1a9a5a14.pth‘,
16 }
17
18 Densenet:
19
20 model_urls = {
21     ‘densenet121‘: ‘https://download.pytorch.org/models/densenet121-a639ec97.pth‘,
22     ‘densenet169‘: ‘https://download.pytorch.org/models/densenet169-b2777c0a.pth‘,
23     ‘densenet201‘: ‘https://download.pytorch.org/models/densenet201-c1103571.pth‘,
24     ‘densenet161‘: ‘https://download.pytorch.org/models/densenet161-8d451a50.pth‘,
25 }
26
27
28
29 Alexnet:
30
31 model_urls = {
32     ‘alexnet‘: ‘https://download.pytorch.org/models/alexnet-owt-4df8aa71.pth‘,
33 }
34
35 vggnet:
36
37 model_urls = {
38     ‘vgg11‘: ‘https://download.pytorch.org/models/vgg11-bbd30ac9.pth‘,
39     ‘vgg13‘: ‘https://download.pytorch.org/models/vgg13-c768596a.pth‘,
40     ‘vgg16‘: ‘https://download.pytorch.org/models/vgg16-397923af.pth‘,
41     ‘vgg19‘: ‘https://download.pytorch.org/models/vgg19-dcbb9e9d.pth‘,
42     ‘vgg11_bn‘: ‘https://download.pytorch.org/models/vgg11_bn-6002323d.pth‘,
43     ‘vgg13_bn‘: ‘https://download.pytorch.org/models/vgg13_bn-abd245e5.pth‘,
44     ‘vgg16_bn‘: ‘https://download.pytorch.org/models/vgg16_bn-6c64b313.pth‘,
45     ‘vgg19_bn‘: ‘https://download.pytorch.org/models/vgg19_bn-c79401a0.pth‘,
46 }

解决下载速度慢的方法:

换移动网络,校园网对于pytorch网站有很大的限速。

原文地址:https://www.cnblogs.com/ywheunji/p/10605614.html

时间: 2024-10-11 04:45:46

pytorch预训练模型的下载地址以及解决下载速度慢的方法的相关文章

关于下载地址权限控制的一点问题解决方法

今天在群里面聊起来下载地址控制的问题,比如一些视频网站或音乐网站,对下载地址进行了加密处理,你复制到其他电脑或者或一段时间之后都失效了,这是怎么实现的呢? 大概思路是这样的: 1.当用户请求网页获取下载地址的时候,根据用户的信息和资源id进行加密得到一个伪编码,比如,根据用户的mac+ip+sessionid+资源id+时间戳然后加密得到一个字符串,返回给用户,比如http://xxxxx.com/xxxxxxxxx.mp3这样的. 2.用户请求上面返回的url的时候,服务器拿到url后解析加密

Pytorch——GPT-2 预训练模型及文本生成

介绍 在本次将学习另一个有着优秀表现的预训练模型:GPT-2 模型,以及使用它进行文本生成任务实践. 知识点 GPT-2 的核心思想 GPT-2 模型结构详解 GPT-2 进行文本生成 OpenAI 在论文 Improving Language Understanding by Generative Pre-Training 中提出了 GPT 模型.GPT 模型是由单向 Transformer 的解码器构建的模型,OpenAI 团队在一个非常大的书籍数据集 the Toronto Book Co

图像分类任务不用冷启动,PaddlePaddle一口气发布十大预训练模型

PaddlePaddle在不断增加官方支持的模型的同时,也在关注预训练模型的丰富度. 在过去的版本中,我们已经发布了目标检测Faster-RCNN.MobileNet-SSD.PyramidBox和场景文字识别CRNN-CTC.OCR Attention共计5个预训练模型. 近期,在图像分类领域我们一口气发布了四个系列共十个预训练模型,丰富扩充了预训练模型库,助力用户提高构建模型的效率,大大减轻"炼丹"的烦恼. 主要包括: MobileNet v1 针对亟需在移动端应用深度学习技术的需

预训练模型与Keras.applications.models权重资源地址

什么是预训练模型 简单来说,预训练模型(pre-trained model)是前人为了解决类似问题所创造出来的模型.你在解决问题的时候,不用从零开始训练一个新模型,可以从在类似问题中训练过的模型入手. 比如说,你如果想做一辆自动驾驶汽车,可以花数年时间从零开始构建一个性能优良的图像识别算法,也可以从Google在ImageNet数据集上训练得到的Inception model(一个预训练模型)起步,来识别图像. 一个预训练模型可能对于你的应用中并不是100%的准确对口,但是它可以为你节省大量功夫

中文预训练模型ERNIE2.0模型下载及安装

2019年7月,百度ERNIE再升级,发布持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型, 它利用百度海量数据和飞桨(PaddlePaddle)多机多卡高效训练优势,通过深度神经网络与多任务学习等技术,持续学习海量数据和知识.基于该框架的艾尼(ERNIE)预训练模型,已累计学习10亿多知识,包括词法.句法.语义等多个维度的自然语言知识,有很强的通用语义表示能力,适用于各种NLP应用场景,效果提升明显,使用高效.便捷. 本篇内容教大家如何下载和使用! 一.预训

pytorch中修改后的模型如何加载预训练模型

问题描述 简单来说,比如你要加载一个vgg16模型,但是你自己需要的网络结构并不是原本的vgg16网络,可能你删掉某些层,可能你改掉某些层,这时你去加载预训练模型,就会报错,错误原因就是你的模型和原本的模型不匹配. 此时有两种解决方法: 1.重新解析参数的字典,将预训练模型的参数提取出来,然后放在自己的模型中对应的位置 2.直接用原本的vgg16网络去加载预训练模型,然后再修改网络. 具体操作待续吧...... 我个人推荐第一种方法. 原文地址:https://www.cnblogs.com/y

Win10预览版系统下载地址大全(含中文)

• 下载ISO后,魔方文件校验(点此下载)来获取SHA1.MD5.CRC等校验值,确保下载的是官方纯净版,不给木马病毒留机会 Win10技术预览版:(官方下载页面) - 安装密钥:NKJFK-GPHP7-G8C3J-P6JXR-HQRJR - 语言版本:英语.英语(英国).中文(简体)和葡萄牙语(巴西) - 系统需求: • 处理器:1千兆赫(GHz)或更快 • 内存:1 GB(32位)或2 GB(64位) • 可用硬盘空间:16 GB • 图形卡:带有WDDM驱动程序的Microsoft Dir

BERT 预训练模型及文本分类

BERT 预训练模型及文本分类 介绍 如果你关注自然语言处理技术的发展,那你一定听说过 BERT,它的诞生对自然语言处理领域具有着里程碑式的意义.本次试验将介绍 BERT 的模型结构,以及将其应用于文本分类实践. 知识点 语言模型和词向量 BERT 结构详解 BERT 文本分类 BERT 全称为 Bidirectional Encoder Representations from Transformer,是谷歌在 2018 年 10 月发布的语言表示模型.BERT 通过维基百科和书籍语料组成的庞

XLNet预训练模型,看这篇就够了!(代码实现)

1. 什么是XLNet XLNet 是一个类似 BERT 的模型,而不是完全不同的模型.总之,XLNet是一种通用的自回归预训练方法.它是CMU和Google Brain团队在2019年6月份发布的模型,最终,XLNet 在 20 个任务上超过了 BERT 的表现,并在 18 个任务上取得了当前最佳效果(state-of-the-art),包括机器问答.自然语言推断.情感分析和文档排序. 作者表示,BERT 这样基于去噪自编码器的预训练模型可以很好地建模双向语境信息,性能优于基于自回归语言模型的