利用keras自带房价数据集进行房价预测

 1 import numpy as np
 2 from keras.datasets import boston_housing
 3 from keras import layers
 4 from keras import models
 5 from keras import optimizers
 6 from keras.utils.np_utils import to_categorical
 7 import matplotlib.pyplot as plt
 8
 9 def main():
10     (train_data, train_labels), (test_data, test_labels) = boston_housing.load_data()
11     mean = train_data.mean(axis = 0)# 通过(x-均值)/方差 把数据变为均值为0,方差为1
12     std = train_data.std(axis = 0)
13     train_data -= mean
14     train_data /= std
15     test_data -= mean
16     test_data /= std
17
18     model = models.Sequential()
19     model.add(layers.Dense(64, activation = ‘relu‘, input_shape = (train_data.shape[1], )))
20     model.add(layers.Dense(64, activation = ‘relu‘))
21     model.add(layers.Dense(1))
22
23     model.compile(optimizer = ‘rmsprop‘, loss = ‘mse‘, metrics = [‘mae‘])# mae: 平均绝对误差
24
25     model.fit(train_data, train_labels, epochs = 80, batch_size = 16)
26
27     _, mae = model.evaluate(test_data, test_labels)
28     print(mae)
29
30 if __name__ == "__main__":
31     main()

最后预测的房价还是和实际价格相差约 2000美元左右

原文地址:https://www.cnblogs.com/rising-sun/p/11624776.html

时间: 2024-07-29 13:19:53

利用keras自带房价数据集进行房价预测的相关文章

利用keras自带影评数据集进行评价正面与否的二分类训练

1 from keras.datasets import imdb 2 from keras import layers 3 from keras import models 4 from keras import optimizers 5 import matplotlib.pyplot as plt 6 import numpy as np 7 8 def vectorize_data(x, dim = 10000): 9 res = np.zeros([len(x), dim]) 10 f

利用keras自带路透社数据集进行多分类训练

1 import numpy as np 2 from keras.datasets import reuters 3 from keras import layers 4 from keras import models 5 from keras import optimizers 6 from keras.utils.np_utils import to_categorical 7 import matplotlib.pyplot as plt 8 9 def vectorize_data(

波士顿房价数据集

机器学习:波士顿房价数据集 波士顿房价数据集(Boston House Price Dataset)(下载地址:http://t.cn/RfHTAgY) 使用sklearn.datasets.load_boston即可加载相关数据. from sklearn.datasets import load_boston 该数据集是一个回归问题.每个类的观察值数量是均等的,共有 506 个观察,13 个输入变量和1个输出变量. 每条数据包含房屋以及房屋周围的详细信息. CRIM:城镇人均犯罪率:  ZN

利用keras搭建CNN进行mnist数据集分类

当接触深度学习算法的时候,大家都很想自己亲自实践一下这个算法,但是一想到那些复杂的程序,又感觉心里面很累啊,又要学诸如tensorflow.theano这些框架.那么,有没有什么好东西能够帮助我们快速搭建这个算法呢?当然是有咯!,现如今真不缺少造轮子的大神,so,我强烈向大家推荐keras,Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow或Theano.Keras为支持快速实验而生,能够把你的idea迅速转换为结果. 具体keras的安装与使用,请参

Python——sklearn提供的自带的数据集

sklearn提供的自带的数据集 sklearn 的数据集有好多个种 自带的小数据集(packaged dataset):sklearn.datasets.load_<name> 可在线下载的数据集(Downloaded Dataset):sklearn.datasets.fetch_<name> 计算机生成的数据集(Generated Dataset):sklearn.datasets.make_<name> svmlight/libsvm格式的数据集:sklearn

CNN眼中的世界:利用Keras解释CNN的滤波器

目录 原文信息 使用Keras探索卷积网络的滤波器 可视化所有的滤波器 Deep Dream(nightmare) 愚弄神经网络 革命尚未成功,同志仍需努力 原文信息 本文地址:http://blog.keras.io/how-convolutional-neural-networks-see-the-world.html 本文作者:Francois Chollet 本文的翻译版最先由我发布在Keras中文文档,为了方便各位网友,特将此文搬移到CSDN. 使用Keras探索卷积网络的滤波器 本文

利用C#自带组件强壮程序日志

前言 在项目正式上线后,如果出现错误.异常.崩溃等情况, 我们往往第一想到的事就是查看日志. 所以日志对于一个系统的维护是非常重要的. 声明 本文中的示例代码旨在这个框架是怎么工作的,具体实现可以自由发挥. 贯穿所有的日志系统 日志系统,往往是贯穿一个程序的所有代码的; 试想一下,如果你的日志完全是由第三方组件提供的; 那么就意味着,你的所有项目都必须引用这个dll; 也许你会说自己可以2次封装,那么依然需要所有项目都引用你的这个封装后的log项目, 另一方面 一些log组件需要实例化后才可以使

利用htmlunit登陆带验证码图片的网站

http://htsoft.org/html/y2011/822_using-htmlunit-landing-site-with-captcha-image.html 利用htmlunit登陆带验证码图片的网站 2011年09月15日 ⁄ 编程语言 ⁄ 共 1266字 ⁄ 字号 小 中 大 ⁄ 暂无评论 ⁄ 阅读 7,088 次 以百度统计为例,说明下如何用htmlunit登陆带验证码的网站 //baidu统计登陆代码 try { WebClient client = new WebClien

【深度学习】简单地利用keras做车标识别

一次简简单单的实验课的内容而已. 首先把给出的样本素材放缩的32*32的大小,这部分可以用Python的批处理和opencv中的放缩函数resize()来做,在此我就不列出代码了. 列举出一部分放缩好的图片. 然后在利用keras简历卷积神经网络的模型,在做此实验之前,电脑要配置好Python+Theano+Keras的环境. #生成一个model def __CNN__(testdata,testlabel,traindata,trainlabel): model = Sequential()