百度PaddlePaddle入门-4


当习惯使用飞桨框架完成建模时,会发现程序呈现出“八股文”的形态。即不同的程序员使用不同模型解决不同任务的时候,他们编写的建模程序是极其相似的。虽然这在某些“极客”的眼里缺乏精彩,但从实用性的角度,这样的设计使建模者更关注需要解决的任务,而不是将精力投入在学习框架上。只要通过一个示例程序掌握使用飞桨的方法,编写实现不同任务的多种模型均变得十分容易。

这点与Python的设计思想一致:对于某个特定功能,并不是实现方式越灵活、越多样越好,最好只有一种最符合“道”的最佳实现。“道”指的是如何人类的思维习惯,当程序员第一次看到Python的很多使用方式,感觉程序天然就应该如此实现。但相信我,不是所有的编程语言都具备这样合道的设计,很多编程语言的设计思路是人应该去理解机器的运作原理。同时,灵活意味着复杂,增加了程序员之间的沟通难度,也不适合现在工业化生产软件的现实。

所以,飞桨设计的初衷不仅要易于学习,还期望使用者能够体会到它的美感和哲学,与人类最自然的认知和习惯相契合。

本书中的案例覆盖经典的预测任务、推荐系统、计算机视觉和自然语言处理等主流应用场景,但所有的案例代码结构均完全一致,分为如下5个部分。

  • 1. 数据处理:读取数据 和 预处理操作
  • 2. 模型设计:网络结构(假设)
  • 3. 训练配置:优化器(寻解算法)
  • 4. 训练过程:循环调用训练过程,包括前向计算 + 计算损失(优化目标) + 后向传播
  • 5. 保存模型并测试:将训练好的模型保存

下面我们使用飞桨框架,按照五个步骤重写房价预测的模型,体会下使用飞桨框架的感觉。

1 #加载飞桨、Numpy和相关类库
2 import paddle
3 import paddle.fluid as fluid
4 import paddle.fluid.dygraph as dygraph
5 from paddle.fluid.dygraph import FC
6 import numpy as np
7 import os
8 import random

1. 数据处理

这部分代码不依赖框架实现,与使用Python编写神经网络模型的代码相同,不再赘述。

 1 def load_data():
 2     # 从文件导入数据
 3     datafile = ‘./work/housing.data‘
 4     data = np.fromfile(datafile, sep=‘ ‘)
 5
 6     # 每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
 7     feature_names = [ ‘CRIM‘, ‘ZN‘, ‘INDUS‘, ‘CHAS‘, ‘NOX‘, ‘RM‘, ‘AGE‘,  8                       ‘DIS‘, ‘RAD‘, ‘TAX‘, ‘PTRATIO‘, ‘B‘, ‘LSTAT‘, ‘MEDV‘ ]
 9     feature_num = len(feature_names)
10
11     # 将原始数据进行Reshape,变成[N, 14]这样的形状
12     data = data.reshape([data.shape[0] // feature_num, feature_num])
13
14     # 将原数据集拆分成训练集和测试集
15     # 这里使用80%的数据做训练,20%的数据做测试
16     # 测试集和训练集必须是没有交集的
17     ratio = 0.8
18     offset = int(data.shape[0] * ratio)
19     training_data = data[:offset]
20
21     # 计算train数据集的最大值,最小值,平均值
22     maximums, minimums, avgs = training_data.max(axis=0), training_data.min(axis=0), 23                                  training_data.sum(axis=0) / training_data.shape[0]
24
25     # 记录数据的归一化参数,在预测时对数据做归一化
26     global max_values
27     global min_values
28     global avg_values
29     max_values = maximums
30     min_values = minimums
31     avg_values = avgs
32
33     # 对数据进行归一化处理
34     for i in range(feature_num):
35         #print(maximums[i], minimums[i], avgs[i])
36         data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
37
38     # 训练集和测试集的划分比例
39     #ratio = 0.8
40     #offset = int(data.shape[0] * ratio)
41     training_data = data[:offset]
42     test_data = data[offset:]
43     return training_data, test_data

上面中global标识的参数max_values,min_values, avg_values表示这些参数会被后面使用到的全局变量。


2. 模型设计

定义线性回归的网络结构,飞桨建议通过创建Python类的方式完成模型网络的定义。

  1. 在类的初始化函数中定义每一层网络的实现函数,这里我们定义了一层全连接层FC,模型结构和上一节模型保持一致。
  2. 定义forward函数构建神经网络结构,实现前向计算过程,并返回预测结果,本例中返回的是房价预测结果。
 1 class Regressor(fluid.dygraph.Layer):
 2     def __init__(self, name_scope):
 3         super(Regressor, self).__init__(name_scope)
 4         name_scope = self.full_name()
 5         # 定义一层全连接层,输出维度是1,激活函数为None,即不使用激活函数
 6         self.fc = FC(name_scope, size=1, act=None)
 7
 8     # 网络的前向计算函数
 9     def forward(self, inputs):
10         x = self.fc(inputs)
11         return x

说实话,我到现在还不明白init函数中的super与name_scope究竟起什么作用,还有就是参数fluid.dygraph.Layer,等后面看是否能了解更多。

上面中全连接看起来很简单,就FC()。


3. 训练配置

训练配置包括:

  1. 声明定义好的模型。
  2. 加载训练数据和测试数据。
  3. 设置优化算法和学习率,本次实验优化算法使用随机梯度下降SGD,学习率使用 0.01。

说明:
在之前基于Python实现神经网络模型的案例中,我们为实现梯度下降编写了大量代码,而使用飞桨框架可以大大简化这个过程。

 1 # 定义飞桨动态图的工作环境
 2 with fluid.dygraph.guard():
 3     # 声明定义好的线性回归模型
 4     model = Regressor("Regressor")
 5     # 开启模型训练模式
 6     model.train()
 7     # 加载数据
 8     training_data, test_data = load_data()
 9     # 定义优化算法,这里使用随机梯度下降-SGD
10     # 学习率设置为0.01
11     opt = fluid.optimizer.SGD(learning_rate=0.01)

注意: 上述代码中,可以发现声明模型,定义优化器等都在with创建的fluid.dygraph.guard()上下文环境中进行,可以理解为with fluid.dygraph.guard()创建了飞桨动态图的工作环境,在该环境下完成模型声明、数据转换、以及模型训练等操作。


4. 训练过程

完成训练配置后即可启动训练过程。训练采用二层循环嵌套方式:

  • 内层循环负责整个数据集的一次遍历,遍历数据集采用分批次(batch)方式,假设数据集样本数量为1000,一个批次有10个样本,则遍历一次数据集的批次数量是1000/10=100,即内层循环需要循环100次;
  • 外层循环定义遍历数据集的次数,本次训练中外层循环10次,通过参数EPOCH_NUM设置;

说明:
batch大小的选择会影响训练效果,batch过大会增大内存消耗,过小则每个batch的样本数据没有统计意义。本次训练数据集较小,我们设置batch为10。

在每次内层循环都需要进行前向计算、损失函数计算和梯度反向传播三个步骤,计算的过程与Python编写的模型完全一致;

  1. 前向计算即将一个批次的样本数据灌入网络中,计算输出结果。
  2. 以前向计算结果和真实房价作为输入,通过损失函数square_error_cost计算出损失函数值(Loss)。
  3. 执行梯度反向传播backward函数,即从后到前逐层计算每一层的梯度,并根据设置的优化算法更新参数(opt.minimize)。

这个实现过程令人惊喜,前向计算、计算损失和反向传播梯度,每个操作居然只有1-2行代码即可实现!我们再也不用一点点的实现模型训练的细节,这就是使用飞桨框架的威力!

 1 with dygraph.guard():
 2     EPOCH_NUM = 10   # 设置外层循环次数
 3     BATCH_SIZE = 10  # 设置batch大小
 4
 5     # 定义外层循环
 6     for epoch_id in range(EPOCH_NUM):
 7         # 在每轮迭代开始之前,将训练数据的顺序随机的打乱
 8         np.random.shuffle(training_data)
 9         # 将训练数据进行拆分,每个batch包含10条数据
10         mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
11         # 定义内层循环
12         for iter_id, mini_batch in enumerate(mini_batches):
13             x = np.array(mini_batch[:, :-1]).astype(‘float32‘) # 获得当前批次训练数据
14             y = np.array(mini_batch[:, -1:]).astype(‘float32‘) # 获得当前批次训练标签(真实房价)
15             # 将numpy数据转为飞桨动态图variable形式
16             house_features = dygraph.to_variable(x)
17             prices = dygraph.to_variable(y)
18
19             # 前向计算
20             predicts = model(house_features)
21
22             # 计算损失
23             loss = fluid.layers.square_error_cost(predicts, label=prices)
24             avg_loss = fluid.layers.mean(fluid.layers.sqrt(loss))
25             if iter_id%20==0:
26                 print("epoch: {}, iter: {}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))
27
28             # 反向传播
29             avg_loss.backward()
30             # 最小化loss,更新参数
31             opt.minimize(avg_loss)
32             # 清除梯度
33             model.clear_gradients()
34     # 保存模型
35     fluid.save_dygraph(model.state_dict(), ‘LR_model‘)
epoch: 0, iter: 0, loss is: [0.13064814]
epoch: 0, iter: 20, loss is: [0.13030791]
epoch: 0, iter: 40, loss is: [0.16929719]
epoch: 1, iter: 0, loss is: [0.15601738]
epoch: 1, iter: 20, loss is: [0.12867273]
epoch: 1, iter: 40, loss is: [0.09122001]
epoch: 2, iter: 0, loss is: [0.10166822]
epoch: 2, iter: 20, loss is: [0.18582721]
epoch: 2, iter: 40, loss is: [0.03117907]
epoch: 3, iter: 0, loss is: [0.16723469]
epoch: 3, iter: 20, loss is: [0.14052589]
epoch: 3, iter: 40, loss is: [0.09920945]
epoch: 4, iter: 0, loss is: [0.10413358]
epoch: 4, iter: 20, loss is: [0.10941665]
epoch: 4, iter: 40, loss is: [0.07716788]
epoch: 5, iter: 0, loss is: [0.14261496]
epoch: 5, iter: 20, loss is: [0.22571495]
epoch: 5, iter: 40, loss is: [0.02776246]
epoch: 6, iter: 0, loss is: [0.2060508]
epoch: 6, iter: 20, loss is: [0.11329012]
epoch: 6, iter: 40, loss is: [0.12139077]
epoch: 7, iter: 0, loss is: [0.11622548]
epoch: 7, iter: 20, loss is: [0.11667629]
epoch: 7, iter: 40, loss is: [0.17747328]
epoch: 8, iter: 0, loss is: [0.04951411]
epoch: 8, iter: 20, loss is: [0.13682985]
epoch: 8, iter: 40, loss is: [0.05742968]
epoch: 9, iter: 0, loss is: [0.07207447]
epoch: 9, iter: 20, loss is: [0.16950324]
epoch: 9, iter: 40, loss is: [0.19291244]

5. 保存并测试模型

在完成两层循环的训练过程后,将模型当前的参数(model.state_dict())保存到文件中(通过参数指定保存的文件名 LR_model),以备预测或校验的程序调用。

1 # 定义飞桨动态图工作环境
2 with fluid.dygraph.guard():
3     # 保存模型参数,文件名为LR_model
4     fluid.save_dygraph(model.state_dict(), ‘LR_model‘)
5     print("模型保存成功,模型参数保存在LR_model中")
模型保存成功,模型参数保存在LR_model中

回顾下基于飞桨实现的房价预测模型,实现的效果与之前基于Python实现的模型没有区别,但两者的实现成本有天壤之别。飞桨的愿景是用户只需要了解模型的逻辑概念,不需要关心实现细节,就能搭建强大的模型。

下面我们选择一条数据样本,测试下模型的预测效果。 测试过程和在应用场景中使用模型的过程是一致的,可分成三个主要步骤。

  • 首先,配置模型预测的机器资源,本案例默认使用本机,所以无需写代码指定。
  • 其次,将训练好的模型参数加载到模型实例中,由两个语句完成,第一句是从文件中读取模型参数,第二句是将参数内容加载到模型。加载完毕后,需要将模型的状态调整为“校验”(evalueation)。这是因为训练状态的模型需要同时支持前向计算和反向传导梯度,模型的实现较为臃肿。而校验/预测状态的模型只需要支持前向计算,模型的实现更加简单,性能更好。
  • 最后,将待预测的样本特征输入到模型中,打印输出的预测结果。比较“模型预测值”和“真实房价”可见,模型预测的效果与真实房价接近。

load_one_example函数实现了从数据集中抽一条样本作为测试样本。

 1 def load_one_example(data_dir):
 2     f = open(data_dir, ‘r‘)
 3     datas = f.readlines()
 4     # 选择倒数第10条数据用于测试
 5     tmp = datas[-10]
 6     tmp = tmp.strip().split()
 7     one_data = [float(v) for v in tmp]
 8
 9     # 对数据进行归一化处理
10     for i in range(len(one_data)-1):
11         one_data[i] = (one_data[i] - avg_values[i]) / (max_values[i] - min_values[i])
12
13     data = np.reshape(np.array(one_data[:-1]), [1, -1]).astype(np.float32)
14     label = one_data[-1]
15     return data, label
 1 with dygraph.guard():
 2     # 参数为保存模型参数的文件地址
 3     model_dict, _ = fluid.load_dygraph(‘LR_model‘)
 4     model.load_dict(model_dict)
 5     model.eval()
 6
 7     # 参数为数据集的文件地址
 8     test_data, label = load_one_example(‘./work/housing.data‘)
 9     # 将数据转为动态图的variable格式
10     test_data = dygraph.to_variable(test_data)
11     results = model(test_data)
12
13     # 对结果做反归一化处理
14     results = results * (max_values[-1] - min_values[-1]) + avg_values[-1]
15     print("Inference result is {}, the corresponding label is {}".format(results.numpy(), label))

房价预测仅是一个最简单的模型,使用飞桨编写均可以事半功倍。那么,对于工业实践中更复杂的模型,使用飞桨节约的成本是不可估量的。同时,因为飞桨针对很多应用场景和机器资源做了性能优化,在功能和性能上往往强于自行编写的模型。

原文地址:https://www.cnblogs.com/yuzaihuan/p/12261522.html

时间: 2024-08-30 11:21:08

百度PaddlePaddle入门-4的相关文章

百度PaddlePaddle入门-14(多个CPU加速训练)

接下来介绍在paddlepaddle中如何使用多CPU来加速训练. 接着前面几节讲的手写数字识别部分,在启动训练前,加载数据和网络结构的代码部分均不变. 1 # 加载相关库 2 import os 3 import random 4 import paddle 5 import paddle.fluid as fluid 6 from paddle.fluid.dygraph.nn import Conv2D, Pool2D, FC 7 import numpy as np 8 from PIL

百度PaddlePaddle入门-9

本节介绍使用飞桨快速实现“手写数字识别”的建模方法. 与“房价预测”的案例类似,我们以同样的标准结构实现“手写数字识别”的建模.在后续的课程中,该标准结构会反复出现,逐渐加深我们对深度学习模型的理解.深度学习模型的标准结构分如下五个步骤: 数据处理:读取数据和预处理操作. 模型设计:搭建神经网络结构. 训练配置:配置优化器.学习率.训练参数. 训练过程:循环调用训练过程,循环执行“前向计算 + 损失函数 + 反向传播”. 保存模型并测试:将训练好的模型保存并评估测试. 下面我们使用飞桨框架,按照

百度PaddlePaddle常规赛NLP赛道火热开启

作为人工智能时代的基础,深度学习一直是人工智能最热门.企业投入最多的研究领域之一,百度PaddlePaddle深度学习框架应运而生,这是国内唯一一家拥有自主知识产权的开源深度学习框架.在此框架中,汇聚了更多的AI科学家.架构师.AI爱好者,设置常规赛,提供丰富的真实数据,多样的算法赛题,显示百度对深度学习框架战略地位的重视,让AI爱好者能够得到更多真实场景的练习机会和更多PaddlePaddle的实际训练经验,这势必推动PaddlePaddle更广泛.更深入地用于人工智能研发及落地应用. 目前已

百度PaddlePaddle再获新技能 智能推荐、对话系统、控制领域都能搞定!

编辑文章 引言:人工智能技术越来越广泛的应用于各行各业,而这一切都离不开底层深度学习框架的支持.近日,百度深度学习PaddlePaddle正式发布了强化学习框架PARL,同时开源了基于该框架,在NeurIPS 2018强化学习赛事中夺冠的模型完整训练代码,再次向业界展示了百度在深度学习领域的技术能力. PARL的效果如何? PARL是基于百度 PaddlePaddle 打造的深度强化学习框架,覆盖了DQN.DDQN.Dueling DQN.DDPG.PPO等主流强化学习算法.在PARL 1.0的

PaddlePaddle入门-3

深度学习在很多机器学习领域均有非常出色的表现,在图像识别.语音识别.自然语言处理.机器人.网络广告投放.医学自动诊断和金融等各大领域有着广泛的应用.面对繁多的应用场景,深度学习框架可以节省大量而繁琐的外围工作,使建模者关注业务场景和模型设计本身. 使用深度学习框架完成建模任务有两个显著优势. 节省大量编写底层代码的精力:屏蔽底层实现,用户只需关注模型的逻辑结构,降低了深度学习入门门槛. 省去了部署和适配环境的烦恼:飞桨框架具备灵活的移植性,可将代码部署到CPU/GPU/移动端上,选择具有分布式性

【深度学习系列】一起来参加百度 PaddlePaddle AI 大赛吧!

写这个系列写了两个月了,对paddlepaddle的使用越来越熟悉,不过一直没找到合适的应用场景.最近百度搞了个AI大赛,据说有四个赛题,现在是第一个----综艺节目精彩片段预测 ,大家可以去检测一下最近的学习成果啊!还有丰厚的奖金10W元软妹币哦! 这是啥比赛? 看比赛的要求,是希望参赛选手使用PaddlePaddle深度学习框架.利用BROAD数据集.利用K-Lab,着手解决行业中的真实问题,从而让AI真正应用于行业.真正服务于行业.本次大赛,我们将目光放在电视综艺行业,希望选手们利用BRO

一块GPU就能训练语义分割网络,百度PaddlePaddle是如何优化的?

一. 图像语义分割模型DeepLab v3 随着计算机视觉的发展,语义分割成为了很多应用场景必不可少的一环. 比如网络直播有着实时剔除背景的要求,自动驾驶需要通过语义分割识别路面,与日俱增的应用场景对语义分割的精度和速度的要求不断提高.同时,语义分割数据集也在不断地进化,早期的Pascal VOC2,其分辨率大多数在1000像素以下.而Cityscape的语义分割数据集分辨率全部达到了1024*2048,总共5000张图片(精细标注),包含19类.这些数据集对研究者,计算设备,甚至框架都带来了更

使用百度地图——入门

创建地图对象 创建点坐标 初始化地图,设置中心点坐标和地图级别 配置地图的其他功能:添加缩放控件.启用鼠标滑轮缩放功能 创建覆盖物对象 创建标注对象 设置标注的标题 添加对象属性 给标注添加事件监听函数 将标注添加到地图中 //在地图上标注所有的项目 function markProjectOnMap() { $.ajax({ url : ctxpath + "/projectInfoAction!markProjectOnMap.action", async : true, data

百度正式发布PaddlePaddle深度强化学习框架PARL

去年,斯坦福大学神经生物实验室与 EPFL 联合举办了一场强化学习赛事--人工智能假肢挑战赛(AI for Prosthetics Challenge),希望将强化学习应用到人体腿部骨骼仿真模拟模型的训练. 经过激烈的角逐,最终来自百度大脑的 NLP 技术团队一举击败众多强劲对手,以9980分的成绩夺得冠军! 近日,百度正式发布在赛事夺冠中起到关键作用的深度强化学习框架  PaddlePaddle PARL,同时开源了基于该框架的 NeurIPS 2018强化学习赛事的完整训练代码.点击"阅读原