中文预训练模型ERNIE2.0模型下载及安装

2019年7月,百度ERNIE再升级,发布持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型, 它利用百度海量数据和飞桨(PaddlePaddle)多机多卡高效训练优势,通过深度神经网络与多任务学习等技术,持续学习海量数据和知识。基于该框架的艾尼(ERNIE)预训练模型,已累计学习10亿多知识,包括词法、句法、语义等多个维度的自然语言知识,有很强的通用语义表示能力,适用于各种NLP应用场景,效果提升明显,使用高效、便捷。

本篇内容教大家如何下载和使用!

一、预训练模型下载

ERNIE 2.0 英文 Base 模型
https://ernie.bj.bcebos.com/ERNIE_Base_en_stable-2.0.0.tar.gz
包含预训练模型参数、词典 vocab.txt、模型配置 ernie_config.json
ERNIE 2.0 英文 Large 模型
https://ernie.bj.bcebos.com/ERNIE_Large_en_stable-2.0.0.tar.gz
包含预训练模型参数、词典 vocab.txt、模型配置 ernie_config.json

二、数据下载

中文数据:https://ernie.bj.bcebos.com/task_data_zh.tgz
英文数据:由于数据集协议问题,在这里无法直接提供英文数据集。GLUE 的数据下载方式请参考GLUE 主页(https://gluebenchmark.com/tasks)以及 GLUE 提供的数据下载代码(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e )。
假设所有数据集下载放置的路径为$GLUE_DATA,将数据下载完毕后,执行

sh ./script/en_glue/preprocess/cvt.sh $GLUE_DATA

将完成所有数据的格式转换,默认转换后的数据会输出到文件夹./glue_data_processed/。

三、PaddlePaddle安装

本项目依赖于 Paddle Fluid 1.5,请参考安装指南
https://www.paddlepaddle.org.cn/#quick-start )进行安装。
【重要】安装后,需要及时的将 CUDA、cuDNN、NCCL2 等动态库路径加入到环境变量 LD_LIBRARY_PATH 之中,否则训练过程中会报相关的库错误。具体的paddlepaddle配置细节请查阅:
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/beginners_guide/quick_start_cn.html
如果您想了解更多的 Paddle 的相关信息,例如针对实际问题建模、搭建自己网络等,这里有更多的来自官方的文档供您参考:
? 基本概念 :介绍了 Fluid 的基本使用概念
? 准备数据 :介绍使用 Fluid 训练网络时,数据的支持类型及传输方法
? 配置简单的网络: 介绍如何针对问题建模,并利用 Fluid 中相关算子搭建网络
? 训练神经网络:介绍如何使用 Fluid 进行单机训练、多机训练、以及保存和载入模型变量
? 模型评估与调试:介绍在 Fluid 下进行模型评估和调试的方法
ERNIE的其他依赖列在requirements.txt文件中,使用以下命令安装

划重点!
查看ERNIE模型使用的完整内容和教程,请点击下方链接,建议Star收藏到个人主页,方便后续查看。
GitHub:https://github.com/PaddlePaddle/ERNIE

版本迭代、最新进展都会在GitHub第一时间发布,欢迎持续关注!

也邀请大家加入ERNIE官方技术交流QQ群:760439550,可在群内交流技术问题,会有ERNIE的研发同学为大家及时答疑解惑。

原文地址:https://blog.51cto.com/14596696/2447973

时间: 2024-08-30 07:15:52

中文预训练模型ERNIE2.0模型下载及安装的相关文章

百度NLP预训练模型ERNIE2.0最强实操课程来袭!【附教程】

2019年3月,百度正式发布NLP模型ERNIE,其在中文任务中全面超越BERT一度引发业界广泛关注和探讨.经过短短几个月时间,百度ERNIE再升级,发布持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型.继1.0后,ERNIE英文任务方面取得全新突破,在共计16个中英文任务上超越了BERT和XLNet, 取得了SOTA效果. 本篇内容可以说是史上最强实操课程,由浅入深完整带大家试跑ERNIE,大家可前往AI Studio fork代码 (https://ais

OpenCV3.1.0的下载、安装和配置

作者:大曲曲 邮箱:[email protected] 本文最终目标:要实现VS2015+QT5+OpenCV3开发环境搭建 1.任务描述 准备配置的环境 电脑系统:Windows 10 专业版 OpenCV版本:3.1.0 Visual Studio版本:2015 在配置OpenCV3之前,需要先把VS2015安装好.本文默认已经安装了VS2015. 如果没有安装VS2015,请参考我的博客中的关于 VS2015的下载和安装的内容:http://blog.csdn.net/quxiaoxia1

Tensorflow加载预训练模型和保存模型

1. Tensorflow模型文件 (1)checkpoint 该文件是文本文件,里面记录了保存的最新的checkpoint文件以及其他checkpoint文件列表.在测试的时候,可以通过修改这个文件,指定具体使用哪个模型 (2)meta文件 这个文件保存的是计算图结构,可以理解为神经网络结构图.是一个二进制的pb格式文件,包含变量.op.集合等. (3)ckpt文件 ckpt文件是二进制文件,保存了所有的weights.biases.gradients等变量.在tensorflow 0.11之

MySQL Community Server 8.0.11下载与安装配置

一.下载 1.选择合适的安装包,我在这里下载的是目前最新的安装包,8.0.11,而且我选择下载的是解压版的,安装版的话,安装会比较麻烦. MySQL Community Server下载链接:https://dev.mysql.com/downloads/mysql/ 点击进入下载页面,滚动到归最下面,选择压缩版的进行下载. 2.直接下载完成. 二.安装与配置 1.直接对下载的文件进行解压到指定的目录下. 2.选择"此电脑",单击右键,选择"属性",如下图所示 3.

window10下的jdk11.0.2下载、安装与环境变量配置

一.下载jdk 这是下载jdk的官网地址: https://www.oracle.com/technetwork/java/javase/downloads/index.html 打开这个网站后出现如下界面: 点击DOWNLOAD按钮(也可以下载其他版本的,这里介绍的是jdk11.0.2) 先点击圆点按钮(表示接受协议,你才能下载jdk),然后选择相应的版本进行下载! 二.jdk的安装 下载好后,找到刚刚自己下载好的.exe文件 双击或者右击->选择以管理员的身份运行一>确定一> 点击下

NLP预训练模型-百度ERNIE2.0的效果到底有多好【附用户点评】

ERNIE是百度自研的持续学习语义理解框架,该框架支持增量引入词汇(lexical).语法 (syntactic) .语义(semantic)等3个层次的自定义预训练任务,能够全面捕捉训练语料中的词法.语法.语义等潜在信息. ERNIE2.0实现了在中英文16个任务上的最优效果,具体效果见下方列表. 一.ERNIE2.0中文效果验证 我们在 9 个任务上验证 ERNIE 2.0 中文模型的效果.这些任务包括:自然语言推断任务 XNLI:阅读理解任务 DRCD.DuReader.CMRC2018:

BERT 预训练模型及文本分类

BERT 预训练模型及文本分类 介绍 如果你关注自然语言处理技术的发展,那你一定听说过 BERT,它的诞生对自然语言处理领域具有着里程碑式的意义.本次试验将介绍 BERT 的模型结构,以及将其应用于文本分类实践. 知识点 语言模型和词向量 BERT 结构详解 BERT 文本分类 BERT 全称为 Bidirectional Encoder Representations from Transformer,是谷歌在 2018 年 10 月发布的语言表示模型.BERT 通过维基百科和书籍语料组成的庞

Pytorch——GPT-2 预训练模型及文本生成

介绍 在本次将学习另一个有着优秀表现的预训练模型:GPT-2 模型,以及使用它进行文本生成任务实践. 知识点 GPT-2 的核心思想 GPT-2 模型结构详解 GPT-2 进行文本生成 OpenAI 在论文 Improving Language Understanding by Generative Pre-Training 中提出了 GPT 模型.GPT 模型是由单向 Transformer 的解码器构建的模型,OpenAI 团队在一个非常大的书籍数据集 the Toronto Book Co

预训练模型:XLNet 和他的先辈们

预训练模型 在CV中,预训练模型如ImagNet取得很大的成功,而在NLP中之前一直没有一个可以承担此角色的模型,目前,预训练模型如雨后春笋,是当今NLP领域最热的研究领域之一. 预训练模型属于迁移学习,即在某一任务上训练的模型,经过微调(finetune)可以应用到其它任务上. 在NLP领域,最早的预训练模型可以说是word2vec, Mikolov应用语言模型进行训练,产生的词向量(word embeddings)可以用于其他任务上,这样的词向量在目标任务上,可以固定不变,也可以随着模型训练