利用keras自带路透社数据集进行多分类训练

 1 import numpy as np
 2 from keras.datasets import reuters
 3 from keras import layers
 4 from keras import models
 5 from keras import optimizers
 6 from keras.utils.np_utils import to_categorical
 7 import matplotlib.pyplot as plt
 8
 9 def vectorize_data(x, dim = 10000):
10     res = np.zeros((len(x), dim))
11     for i, sequence in enumerate(x):
12         res[i, sequence] = 1
13     return res
14
15 def main():
16     (train_data, train_labels), (test_data, test_labels) = reuters.load_data(num_words=10000)
17     x_train = vectorize_data(train_data)
18     x_test = vectorize_data(test_data)
19     y_train = to_categorical(train_labels)
20     y_test = to_categorical(test_labels)
21
22     network = models.Sequential()
23     network.add(layers.Dense(128, activation = ‘relu‘, input_shape = (10000, )))
24     network.add(layers.Dense(64, activation = ‘relu‘))
25     network.add(layers.Dense(46, activation = ‘softmax‘))
26
27     network.compile(optimizer = ‘rmsprop‘, loss = ‘categorical_crossentropy‘, metrics = [‘accuracy‘])
28     network.fit(x_train, y_train, epochs = 6, batch_size = 512)
29
30     _, acc = network.evaluate(x_test, y_test)
31
32     print(acc)
33
34
35 if __name__ == "__main__":
36     main()

原文地址:https://www.cnblogs.com/rising-sun/p/11624243.html

时间: 2024-11-06 07:20:30

利用keras自带路透社数据集进行多分类训练的相关文章

利用keras自带影评数据集进行评价正面与否的二分类训练

1 from keras.datasets import imdb 2 from keras import layers 3 from keras import models 4 from keras import optimizers 5 import matplotlib.pyplot as plt 6 import numpy as np 7 8 def vectorize_data(x, dim = 10000): 9 res = np.zeros([len(x), dim]) 10 f

利用keras自带房价数据集进行房价预测

1 import numpy as np 2 from keras.datasets import boston_housing 3 from keras import layers 4 from keras import models 5 from keras import optimizers 6 from keras.utils.np_utils import to_categorical 7 import matplotlib.pyplot as plt 8 9 def main():

利用keras搭建CNN进行mnist数据集分类

当接触深度学习算法的时候,大家都很想自己亲自实践一下这个算法,但是一想到那些复杂的程序,又感觉心里面很累啊,又要学诸如tensorflow.theano这些框架.那么,有没有什么好东西能够帮助我们快速搭建这个算法呢?当然是有咯!,现如今真不缺少造轮子的大神,so,我强烈向大家推荐keras,Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow或Theano.Keras为支持快速实验而生,能够把你的idea迅速转换为结果. 具体keras的安装与使用,请参

CNN眼中的世界:利用Keras解释CNN的滤波器

目录 原文信息 使用Keras探索卷积网络的滤波器 可视化所有的滤波器 Deep Dream(nightmare) 愚弄神经网络 革命尚未成功,同志仍需努力 原文信息 本文地址:http://blog.keras.io/how-convolutional-neural-networks-see-the-world.html 本文作者:Francois Chollet 本文的翻译版最先由我发布在Keras中文文档,为了方便各位网友,特将此文搬移到CSDN. 使用Keras探索卷积网络的滤波器 本文

利用C#自带组件强壮程序日志

前言 在项目正式上线后,如果出现错误.异常.崩溃等情况, 我们往往第一想到的事就是查看日志. 所以日志对于一个系统的维护是非常重要的. 声明 本文中的示例代码旨在这个框架是怎么工作的,具体实现可以自由发挥. 贯穿所有的日志系统 日志系统,往往是贯穿一个程序的所有代码的; 试想一下,如果你的日志完全是由第三方组件提供的; 那么就意味着,你的所有项目都必须引用这个dll; 也许你会说自己可以2次封装,那么依然需要所有项目都引用你的这个封装后的log项目, 另一方面 一些log组件需要实例化后才可以使

利用htmlunit登陆带验证码图片的网站

http://htsoft.org/html/y2011/822_using-htmlunit-landing-site-with-captcha-image.html 利用htmlunit登陆带验证码图片的网站 2011年09月15日 ⁄ 编程语言 ⁄ 共 1266字 ⁄ 字号 小 中 大 ⁄ 暂无评论 ⁄ 阅读 7,088 次 以百度统计为例,说明下如何用htmlunit登陆带验证码的网站 //baidu统计登陆代码 try { WebClient client = new WebClien

【深度学习】简单地利用keras做车标识别

一次简简单单的实验课的内容而已. 首先把给出的样本素材放缩的32*32的大小,这部分可以用Python的批处理和opencv中的放缩函数resize()来做,在此我就不列出代码了. 列举出一部分放缩好的图片. 然后在利用keras简历卷积神经网络的模型,在做此实验之前,电脑要配置好Python+Theano+Keras的环境. #生成一个model def __CNN__(testdata,testlabel,traindata,trainlabel): model = Sequential()

C# 利用VS自带的WSDL工具生成WebService服务类

C# 利用VS自带的WSDL工具生成WebService服务类 wsdl /language:c# /n:空间名 /out:D:/类名 webService接口地址

利用hadoop自带程序运行wordcount

1.启动hadoop守护进程 bin/hadoop start-all.sh 2.在hadoop的bin目录下建立一个input文件夹 mkdire input 3.进入input目录之后,在input目录下新建两个文本文件,并想其写入内容 echo "hello excuse me fuck thank you">test1.txt echo "hello how do you do thank you">test2.txt 4.进入hadoop的bi