百度PaddlePaddle入门-9

本节介绍使用飞桨快速实现“手写数字识别”的建模方法。

与“房价预测”的案例类似,我们以同样的标准结构实现“手写数字识别”的建模。在后续的课程中,该标准结构会反复出现,逐渐加深我们对深度学习模型的理解。深度学习模型的标准结构分如下五个步骤:

  1. 数据处理:读取数据和预处理操作。
  2. 模型设计:搭建神经网络结构。
  3. 训练配置:配置优化器、学习率、训练参数。
  4. 训练过程:循环调用训练过程,循环执行“前向计算 + 损失函数 + 反向传播”。
  5. 保存模型并测试:将训练好的模型保存并评估测试。

下面我们使用飞桨框架,按照五个步骤写“手写数字识别”模型,体会下使用飞桨框架的感觉。

在数据处理前,首先要加载飞桨平台、与“手写数字识别”模型相关类库,代码如下:

1 #加载飞桨和相关类库
2 import paddle
3 import paddle.fluid as fluid
4 from paddle.fluid.dygraph.nn import FC
5 import numpy as np
6 import os
7 from PIL import Image

1. 数据处理

飞桨提供了多个封装好的数据集API,覆盖计算机视觉、自然语言处理、推荐系统等多个领域,可以帮助我们快速完成机器学习任务。比如,在“手写数字识别”模型中,我们可以通过调用paddle.dataset.mnist的train函数和test函数,直接获取处理好的MNIST训练集和测试集。

定义数据读取器

用户可以通过如下代码定义数据读取器:

1 # 如果~/.cache/paddle/dataset/mnist/目录下没有MNIST数据,API会自动将MINST数据下载到该文件夹下
2 # 设置数据读取器,读取MNIST数据训练集
3 trainset = paddle.dataset.mnist.train()
4 testset = paddle.dataset.mnist.test()
5 # 包装数据读取器,每次读取的数据数量设置为batch_size=8
6 train_reader = paddle.batch(trainset, batch_size=8)
7 test_reader = paddle.batch(testset,batch_size=8)

读取数据,并打印观察

paddle.batch函数将MNIST数据集拆分成多个批次,我们可以用下面的代码读取第一个批次的数据内容(因为for循环结尾处有一个break,运行一个循环后就立即退出),并观察数据结果。

 1 # 以迭代的形式读取数据
 2 for batch_id, data in enumerate(train_reader()):
 3     # 获得图像数据,并转为float32类型的数组
 4     img_data = np.array([x[0] for x in data]).astype(‘float32‘)
 5     # 获得图像标签数据,并转为float32类型的数组
 6     label_data = np.array([x[1] for x in data]).astype(‘float32‘)
 7     # 打印数据形状
 8     #print("图像数据形状和对应数据为:", img_data.shape, img_data[0])
 9     print("图像数据形状和对应数据为:", img_data.shape)
10     print("图像标签形状和对应数据为:", label_data.shape, label_data[0])
11     break
12
13 print("\n打印第一个batch的第一个图像,对应标签数字为{}".format(label_data[0]))
14 # 显示第一batch的第一个图像(可以在程序任一个地方引用库)
15 import matplotlib.pyplot as plt
16 #img=np.array(img_data[0])  #这两句话效果相同
17 img = np.array(img_data[0]+1)*127.5
18 img = np.reshape(img, [28, 28]).astype(np.uint8)
19
20 plt.figure("Image") # 图像窗口名称
21 plt.imshow(img)
22 plt.axis(‘on‘) # 关掉坐标轴为 off
23 plt.title(‘image‘) # 图像题目
24 plt.show()
图像数据形状和对应数据为: (8, 784)
图像标签形状和对应数据为: (8,) 5.0

打印第一个batch的第一个图像,对应标签数字为5.0

上面得到的数据img_data[0]输出的是一个矩阵,每个数据值在【-1,1】之间。

从代码的输出来看,我们从数据加载器train_loader()中读取一次数据,可以得到形状为 (8, 784)的图像数据和形状为(8,)的标签数据。其中,8与设置的batch大小对应,784为mnist数据集中每个图像的像素数量(28*28)。

另外,从打印的图像数据来看,图像数据的范围是[-1, 1],表明这是已经完成图像归一化后的图像数据,且背景部分的值是-1。我们可以将图像数据反归一化(就是+1,再乘以127),并使用matplotlib工具包将其显示出来。显示的数字是5,和对应标签数字一致。

说明:

飞桨将维度是28*28的手写数字数据图像转成向量形式存储,因此,使用飞桨数据读取到的手写数字图像是长度为784(28*28)的向量。


2. 模型设计

在“房价预测”深度学习任务中,我们使用了单层且没有非线性变换的模型,取得了理想的预测效果。在“手写数字识别”中,我们依然使用这个模型预测输入的图形数字值。其中,模型的输入为784维(28*28)数据,输出为1维数据,如图1所示。

 1 # 定义mnist数据识别网络结构,同房价预测网络
 2 class MNIST(fluid.dygraph.Layer):
 3     def __init__(self, name_scope):
 4         super(MNIST, self).__init__(name_scope)
 5         name_scope = self.full_name()
 6         # 定义一层全连接层,输出维度是1,激活函数为None,即不使用激活函数
 7         #hidden1=fluid.layers.fc(input=name_scope,size=100,act=‘relu‘)
 8         #hidden2=FC(input=hidden1,size=100,act=‘relu‘)
 9         self.fc = FC(name_scope, size=1, act=‘relu‘)
10
11     # 定义网络结构的前向计算过程
12     def forward(self, inputs):
13         outputs = self.fc(inputs)
14         return outputs

3. 训练配置

训练配置负责神经网络训练前的准备,包括:

  1. 声明定义好的模型。
  2. 加载训练数据和测试数据。
  3. 设置优化算法和学习率,本次实验优化算法使用随机梯度下降SGD,学习率使用 0.01。
 1 # 定义飞桨动态图工作环境
 2 with fluid.dygraph.guard():
 3     # 声明网络结构
 4     model = MNIST("mnist")
 5     # 启动训练模式
 6     model.train()
 7     # 定义数据读取函数,数据读取batch_size设置为16
 8     train_loader = paddle.batch(paddle.dataset.mnist.train(), batch_size=16)
 9     # 定义优化器,使用随机梯度下降SGD优化器,学习率设置为0.001
10     optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001)

上面中train()函数没有发现在MNIST类中有定义,很是奇怪,需要找到train()函数的原始定义。


4. 训练过程

完成训练配置后,可启动训练过程。采用二层循环嵌套方式:

  • 内层循环负责整个数据集的一次遍历,遍历数据集采用分批次(batch)方式。
  • 外层循环定义遍历数据集的次数,本次训练中外层循环10次,通过参数EPOCH_NUM设置。
 1 # 通过with语句创建一个dygraph运行的context,
 2 # 动态图下的一些操作需要在guard下进行
 3 with fluid.dygraph.guard():
 4     model = MNIST("mnist")
 5     model.train()
 6     train_loader = paddle.batch(paddle.dataset.mnist.train(), batch_size=16)
 7     optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001)
 8     EPOCH_NUM = 10
 9     for epoch_id in range(EPOCH_NUM):
10         for batch_id, data in enumerate(train_loader()):
11             #准备数据,格式需要转换成符合框架要求的
12             image_data = np.array([x[0] for x in data]).astype(‘float32‘)
13             label_data = np.array([x[1] for x in data]).astype(‘float32‘).reshape(-1, 1)
14             # 将数据转为飞桨动态图格式
15             image = fluid.dygraph.to_variable(image_data)
16             label = fluid.dygraph.to_variable(label_data)
17
18             #前向计算的过程
19             predict = model(image)
20
21             #计算损失,取一个批次样本损失的平均值
22             loss = fluid.layers.square_error_cost(predict, label)
23             avg_loss = fluid.layers.mean(loss)
24
25             #每训练了1000批次的数据,打印下当前Loss的情况
26             if batch_id !=0 and batch_id  % 1000 == 0:
27                 print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, avg_loss.numpy()))
28
29             #后向传播,更新参数的过程
30             avg_loss.backward()
31             optimizer.minimize(avg_loss)
32             model.clear_gradients()
33
34     # 保存模型
35     fluid.save_dygraph(model.state_dict(), ‘mnist‘)
epoch: 0, batch: 1000, loss is: [1.8736392]
epoch: 0, batch: 2000, loss is: [4.0054626]
epoch: 0, batch: 3000, loss is: [3.7705934]
epoch: 1, batch: 1000, loss is: [1.8645047]
epoch: 1, batch: 2000, loss is: [3.8951108]
epoch: 1, batch: 3000, loss is: [3.5067868]
epoch: 2, batch: 1000, loss is: [1.8366505]
epoch: 2, batch: 2000, loss is: [3.778401]
epoch: 2, batch: 3000, loss is: [3.4168165]
epoch: 3, batch: 1000, loss is: [1.8329564]
epoch: 3, batch: 2000, loss is: [3.7081861]
epoch: 3, batch: 3000, loss is: [3.3437557]
epoch: 4, batch: 1000, loss is: [1.8373424]
epoch: 4, batch: 2000, loss is: [3.6615422]
epoch: 4, batch: 3000, loss is: [3.2822015]
epoch: 5, batch: 1000, loss is: [1.8455799]
epoch: 5, batch: 2000, loss is: [3.6457105]
epoch: 5, batch: 3000, loss is: [3.2266264]
epoch: 6, batch: 1000, loss is: [1.8546844]
epoch: 6, batch: 2000, loss is: [3.6325989]
epoch: 6, batch: 3000, loss is: [3.1794245]
epoch: 7, batch: 1000, loss is: [1.863614]
epoch: 7, batch: 2000, loss is: [3.6269343]
epoch: 7, batch: 3000, loss is: [3.129442]
epoch: 8, batch: 1000, loss is: [1.8726021]
epoch: 8, batch: 2000, loss is: [3.6225967]
epoch: 8, batch: 3000, loss is: [3.0918531]
epoch: 9, batch: 1000, loss is: [1.880715]
epoch: 9, batch: 2000, loss is: [3.6216624]
epoch: 9, batch: 3000, loss is: [3.0604477]上面为训练的结果输出。同样的问题:predict = model(image)这句中,没有调用model的forward()函数就完成了前向计算,也理解不了。通过观察训练过程中损失所发生的变化,可以发现虽然损失整体上在降低,但到训练的最后一轮,损失函数值依然较高。可以猜测,“手写数字识别”完全复用“房价预测”的代码,训练效果并不好。接下来我们通过模型测试,获取模型训练的真实效果。

5. 模型测试

模型测试的主要目的是验证训练好的模型是否能正确识别出数字。测试模型包括以下三步:

  • 从‘./demo/example_0.jpg‘目录下读取样例图片。
  • 加载模型并将模型的状态设置为校验状态(eval),显式告诉框架我们接下来只会使用前向计算的流程,不会计算梯度和梯度反向传播,这将减少内存的消耗。
  • 将测试样本传入模型,获取预测结果,取整后作为预测标签输出。
1 # 导入图像读取第三方库
2 import matplotlib.image as mpimg
3 import matplotlib.pyplot as plt
4 # 读取图像
5 example = mpimg.imread(‘./work/example_0.png‘)
6 # 显示图像
7 plt.imshow(example)

 1 # 读取一张本地的样例图片,转变成模型输入的格式
 2 def load_image(img_path):
 3     # 从img_path中读取图像,并转为灰度图
 4     im = Image.open(img_path).convert(‘L‘)
 5     print(np.array(im))
 6     im = im.resize((28, 28), Image.ANTIALIAS)
 7     im = np.array(im).reshape(1, -1).astype(np.float32)
 8     # 图像归一化,保持和数据集的数据范围一致
 9     im = 2 - im / 127.5
10     return im
11
12 # 定义预测过程
13 with fluid.dygraph.guard():
14     model = MNIST("mnist")
15     params_file_path = ‘mnist‘
16     img_path = ‘./work/example_0.png‘
17     # 加载模型参数
18     model_dict, _ = fluid.load_dygraph("mnist")
19     model.load_dict(model_dict)
20
21     model.eval()
22     tensor_img = load_image(img_path)
23     result = model(fluid.dygraph.to_variable(tensor_img))
24     #预测输出取整,即为预测的数字
25     print("本次预测的数字是", result.numpy().astype(‘int32‘))
[[255 255 255 ... 255 255 255]
 [255 255 255 ... 255 255 255]
 [255 255 255 ... 255 255 255]
 ...
 [255 255 255 ... 255 255 255]
 [255 255 255 ... 255 255 255]
 [255 255 255 ... 255 255 255]]
本次预测的数字是 [[1]]
model.load_dict()是加载模型,model.eval()是去掉训练过程(也就是没有了反向计算过程),只是测试。如上可见,模型错误预测样例图片中的数字是1,实际应该预测的结果是0。但如果我们尝试更多的样本,会发现很多数字图片识别结果是错误的,完全复用房价预测的实验并不适用于手写数字识别任务,接下来我们会对该实验进行逐一改进,直到获得令人满意的结果。

原文地址:https://www.cnblogs.com/yuzaihuan/p/12283759.html

时间: 2024-10-09 07:05:08

百度PaddlePaddle入门-9的相关文章

百度PaddlePaddle入门-14(多个CPU加速训练)

接下来介绍在paddlepaddle中如何使用多CPU来加速训练. 接着前面几节讲的手写数字识别部分,在启动训练前,加载数据和网络结构的代码部分均不变. 1 # 加载相关库 2 import os 3 import random 4 import paddle 5 import paddle.fluid as fluid 6 from paddle.fluid.dygraph.nn import Conv2D, Pool2D, FC 7 import numpy as np 8 from PIL

百度PaddlePaddle入门-4

当习惯使用飞桨框架完成建模时,会发现程序呈现出“八股文”的形态.即不同的程序员使用不同模型解决不同任务的时候,他们编写的建模程序是极其相似的.虽然这在某些“极客”的眼里缺乏精彩,但从实用性的角度,这样的设计使建模者更关注需要解决的任务,而不是将精力投入在学习框架上.只要通过一个示例程序掌握使用飞桨的方法,编写实现不同任务的多种模型均变得十分容易. 这点与Python的设计思想一致:对于某个特定功能,并不是实现方式越灵活.越多样越好,最好只有一种最符合“道”的最佳实现.“道”指的是如何人类的思维习

百度PaddlePaddle常规赛NLP赛道火热开启

作为人工智能时代的基础,深度学习一直是人工智能最热门.企业投入最多的研究领域之一,百度PaddlePaddle深度学习框架应运而生,这是国内唯一一家拥有自主知识产权的开源深度学习框架.在此框架中,汇聚了更多的AI科学家.架构师.AI爱好者,设置常规赛,提供丰富的真实数据,多样的算法赛题,显示百度对深度学习框架战略地位的重视,让AI爱好者能够得到更多真实场景的练习机会和更多PaddlePaddle的实际训练经验,这势必推动PaddlePaddle更广泛.更深入地用于人工智能研发及落地应用. 目前已

百度PaddlePaddle再获新技能 智能推荐、对话系统、控制领域都能搞定!

编辑文章 引言:人工智能技术越来越广泛的应用于各行各业,而这一切都离不开底层深度学习框架的支持.近日,百度深度学习PaddlePaddle正式发布了强化学习框架PARL,同时开源了基于该框架,在NeurIPS 2018强化学习赛事中夺冠的模型完整训练代码,再次向业界展示了百度在深度学习领域的技术能力. PARL的效果如何? PARL是基于百度 PaddlePaddle 打造的深度强化学习框架,覆盖了DQN.DDQN.Dueling DQN.DDPG.PPO等主流强化学习算法.在PARL 1.0的

PaddlePaddle入门-3

深度学习在很多机器学习领域均有非常出色的表现,在图像识别.语音识别.自然语言处理.机器人.网络广告投放.医学自动诊断和金融等各大领域有着广泛的应用.面对繁多的应用场景,深度学习框架可以节省大量而繁琐的外围工作,使建模者关注业务场景和模型设计本身. 使用深度学习框架完成建模任务有两个显著优势. 节省大量编写底层代码的精力:屏蔽底层实现,用户只需关注模型的逻辑结构,降低了深度学习入门门槛. 省去了部署和适配环境的烦恼:飞桨框架具备灵活的移植性,可将代码部署到CPU/GPU/移动端上,选择具有分布式性

【深度学习系列】一起来参加百度 PaddlePaddle AI 大赛吧!

写这个系列写了两个月了,对paddlepaddle的使用越来越熟悉,不过一直没找到合适的应用场景.最近百度搞了个AI大赛,据说有四个赛题,现在是第一个----综艺节目精彩片段预测 ,大家可以去检测一下最近的学习成果啊!还有丰厚的奖金10W元软妹币哦! 这是啥比赛? 看比赛的要求,是希望参赛选手使用PaddlePaddle深度学习框架.利用BROAD数据集.利用K-Lab,着手解决行业中的真实问题,从而让AI真正应用于行业.真正服务于行业.本次大赛,我们将目光放在电视综艺行业,希望选手们利用BRO

一块GPU就能训练语义分割网络,百度PaddlePaddle是如何优化的?

一. 图像语义分割模型DeepLab v3 随着计算机视觉的发展,语义分割成为了很多应用场景必不可少的一环. 比如网络直播有着实时剔除背景的要求,自动驾驶需要通过语义分割识别路面,与日俱增的应用场景对语义分割的精度和速度的要求不断提高.同时,语义分割数据集也在不断地进化,早期的Pascal VOC2,其分辨率大多数在1000像素以下.而Cityscape的语义分割数据集分辨率全部达到了1024*2048,总共5000张图片(精细标注),包含19类.这些数据集对研究者,计算设备,甚至框架都带来了更

使用百度地图——入门

创建地图对象 创建点坐标 初始化地图,设置中心点坐标和地图级别 配置地图的其他功能:添加缩放控件.启用鼠标滑轮缩放功能 创建覆盖物对象 创建标注对象 设置标注的标题 添加对象属性 给标注添加事件监听函数 将标注添加到地图中 //在地图上标注所有的项目 function markProjectOnMap() { $.ajax({ url : ctxpath + "/projectInfoAction!markProjectOnMap.action", async : true, data

百度正式发布PaddlePaddle深度强化学习框架PARL

去年,斯坦福大学神经生物实验室与 EPFL 联合举办了一场强化学习赛事--人工智能假肢挑战赛(AI for Prosthetics Challenge),希望将强化学习应用到人体腿部骨骼仿真模拟模型的训练. 经过激烈的角逐,最终来自百度大脑的 NLP 技术团队一举击败众多强劲对手,以9980分的成绩夺得冠军! 近日,百度正式发布在赛事夺冠中起到关键作用的深度强化学习框架  PaddlePaddle PARL,同时开源了基于该框架的 NeurIPS 2018强化学习赛事的完整训练代码.点击"阅读原