学习keras的regressor

Regressor 回归

作者: Alice 编辑: Morvan

神经网络可以用来模拟回归问题 (regression),例如给下面一组数据,用一条线来对数据进行拟合,并可以预测新输入 x 的输出值。

用 Keras 构建回归神经网络的步骤:

  1. 导入模块并创建数据
  2. 建立模型
  3. 激活模型
  4. 训练模型
  5. 检验模型
  6. 可视化结果

导入模块并创建数据

models.Sequential,用来一层一层一层的去建立神经层; layers.Dense 意思是这个神经层是全连接层。

import numpy as np

np.random.seed(1337)  # for reproducibility

from keras.models import Sequential

from keras.layers import Dense

import matplotlib.pyplot as plt # 可视化模块

# create some data

X = np.linspace(-1, 1, 200)

np.random.shuffle(X)    # randomize the data

Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (200, ))

# plot data

plt.scatter(X, Y)

plt.show()

X_train, Y_train = X[:160], Y[:160]     # train 前 160 data points

X_test, Y_test = X[160:], Y[160:]       # test 后 40 data points

建立模型

然后用 Sequential 建立 model, 再用 model.add 添加神经层,添加的是 Dense 全连接神经层。

参数有两个,一个是输入数据和输出数据的维度,本代码的例子中 x 和 y 是一维的。

如果需要添加下一个神经层的时候,不用再定义输入的纬度,因为它默认就把前一层的输出作为当前层的输入。在这个例子里,只需要一层就够了。

model = Sequential()

model.add(Dense(output_dim=1, input_dim=1))

激活模型

接下来要激活神经网络,上一步只是定义模型。

参数中,误差函数用的是 mse 均方误差;优化器用的是 sgd 随机梯度下降法。

# choose loss function and optimizing method

model.compile(loss=‘mse‘, optimizer=‘sgd‘)

以上三行就构建好了一个神经网络,它比 Tensorflow 要少了很多代码,很简单。

训练模型

训练的时候用 model.train_on_batch 一批一批的训练 X_train, Y_train。默认的返回值是cost,每100步输出一下结果。

# training

print(‘Training -----------‘)

for step in range(301):

cost = model.train_on_batch(X_train, Y_train)

if step % 100 == 0:

print(‘train cost: ‘, cost)

"""

Training -----------

train cost:  4.111329555511475

train cost:  0.08777070790529251

train cost:  0.007415373809635639

train cost:  0.003544030711054802

"""

检验模型

用到的函数是 model.evaluate,输入测试集的x和y, 输出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一层 model.layers[0] 学习到的参数。从学习到的结果你可以看到, weights 比较接近0.5,bias 接近 2。

# test

print(‘\nTesting ------------‘)

cost = model.evaluate(X_test, Y_test, batch_size=40)

print(‘test cost:‘, cost)

W, b = model.layers[0].get_weights()

print(‘Weights=‘, W, ‘\nbiases=‘, b)

"""

Testing ------------

40/40 [==============================] - 0s

test cost: 0.004269329831

Weights= [[ 0.54246825]]

biases= [ 2.00056005]

"""

可视化结果

最后可以画出预测结果,与测试集的值进行对比。

# plotting the prediction

Y_pred = model.predict(X_test)

plt.scatter(X_test, Y_test)

plt.plot(X_test, Y_pred)

plt.show()

如果你觉得这篇文章或视频对你的学习很有帮助, 请你也分享它, 让它能再次帮助到更多的需要学习的人.

莫烦没有正式的经济来源, 如果你也想支持 莫烦Python 并看到更好的教学内容, 请拉倒屏幕最下方, 赞助他一点点, 作为鼓励他继续开源的动力.

https://morvanzhou.github.io/tutorials/machine-learning/keras/2-1-regressor/

时间: 2024-08-05 00:56:05

学习keras的regressor的相关文章

深度学习Keras框架笔记之AutoEncoder类

深度学习Keras框架笔记之AutoEncoder类使用笔记 keras.layers.core.AutoEncoder(encoder, decoder,output_reconstruction=True, weights=None) 这是一个用于构建很常见的自动编码模型.如果参数output_reconstruction=True,那么dim(input)=dim(output):否则dim(output)=dim(hidden). inputshape: 取决于encoder的定义 ou

深度学习Keras框架笔记之TimeDistributedDense类

深度学习Keras框架笔记之TimeDistributedDense类使用方法笔记 例: keras.layers.core.TimeDistributedDense(output_dim,init='glorot_uniform', activation='linear', weights=None W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint

利用深度学习(Keras)进行癫痫分类-Python案例

目录 癫痫介绍 数据集 Keras深度学习案例 本分享为脑机学习者Rose整理发表于公众号:脑机接口社区(微信号:Brain_Computer).QQ交流群:903290195 癫痫介绍 癫痫,即俗称"羊癫风",是由多种病因引起的慢性脑功能障碍综合症,是仅次于脑血管病的第二大脑部疾病.癫痫发作的直接原因是脑部神经元反复地突发性过度放电所导致的间歇性中枢神经系统功能失调.临床上常表现为突然意识丧失.全身抽搐以及精神异常等.癫痫给患者带来巨大的痛苦和身心伤害,严重时甚至危及生命,儿童患者会

学习Keras:《Keras快速上手基于Python的深度学习实战》PDF代码+mobi

有一定Python和TensorFlow基础的人看应该很容易,各领域的应用,但比较广泛,不深刻,讲硬件的部分可以作为入门人的参考. <Keras快速上手基于Python的深度学习实战>系统地讲解了深度学习的基本知识.建模过程和应用,并以深度学习在推荐系统.图像识别.自然语言处理.文字生成和时间序列中的具体应用为案例,详细介绍了从工具准备.数据获取和处理到针对问题进行建模的整个过程和实践经验. <Keras快速上手>PDF,531页,带书签目录,彩色配图,文字可以复制. 配套源代码和

如何在python 深度学习Keras中计算神经网络集成模型

神经网络的训练过程是一个挑战性的优化过程,通常无法收敛. 这可能意味着训练结束时的模型可能不是稳定的或表现最佳的权重集,无法用作最终模型. 解决此问题的一种方法是使用在训练运行结束时看到的多个模型的权重平均值. 平均模型权重 学习深度神经网络模型的权重需要解决高维非凸优化问题. 解决此优化问题的一个挑战是,有许多“ 好的 ”解决方案,学习算法可能会反弹而无法稳定. 解决此问题的一种方法是在训练过程即将结束时合并所收集的权重.通常,这可以称为时间平均,并称为Polyak平均或Polyak-Rupp

深度学习Keras框架笔记之激活函数详解

激活函数也是神经网络中一个很重的部分.每一层的网络输出都要经过激活函数.比较常用的有linear,sigmoid,tanh,softmax等.Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数.  一.激活函数的使用 常用的方法在Activation层中可以找到.看代码. from keras.layers.core import Activation, Dense model.add(Dense(64)) model.add(Activation('t

深度学习Keras框架笔记之Activation类使用

使用 keras.layers.core.Activation(activation) Apply an activation function tothe input.(貌似是把激活函数应用到输入数据的一种层结构) inputshape: 任意.当把这层作为某个模型的第一层时,需要用到该参数(元组,不包含样本轴). outputshape:同input shape 参数: activation:编码器,是一个layer类型或layer容器类型. decoder:解码器,是一个layer类型或l

Keras版Faster-RCNN代码学习(IOU,RPN)1

最近开始使用Keras来做深度学习,发现模型搭建相较于MXnet, Caffe等确实比较方便,适合于新手练手,于是找来了目标检测经典的模型Faster-RCNN的keras代码来练练手,代码的主题部分转自知乎专栏Learning Machine,作者张潇捷,链接如下: keras版faster-rcnn算法详解(1.RPN计算) keras版faster-rcnn算法详解 (2.roi计算及其他) 我再对代码中loss的计算,config的设置等细节进行学习 Keras版Faster-RCNN代

学习参考+《深度学习基于Keras的Python实践》PDF+ 源代码+魏贞原

深度学习学习框架有tensorflow.pytorch.keras.学习keras时,推荐<深度学习:基于Keras的Python实践>,适合深度学习入门和实践. 尤其是第三部分,利用卷积神经网络解决情感分析问题比较好. <深度学习:基于Keras的Python实践>系统讲解了深度学习的基本知识,以及使用深度学习解决实际问题,详细介绍了如何构建及优化模型,并针对不同的问题给出不同的解决方案,通过不同的例子展示了在具体项目中的应用和实践经验. 推荐参考:<深度学习:基于Kera