Python/Keras如何将给定的数据集打乱

给定数据集data,数据集对应的标签label

index = [i for i in range(len(data))]
random.shuffle(index)
data = data[index]
label = label[index]

(1)首先,获得数据集的所有index,其实就是0,1,2,....,num-1(这里的num是数据集中含有的examples的个数,注意,python的索引是从0开始的,所以,第一个元素索引为0,最后一个元素索引为num-1)

【数据集中函数的样本个数num=sampNum = len(data)】

index = [i for i in range(len(data))]

    

(2)将索引随机打乱顺序

random.shuffle(index)

  

(3)按照新的乱序索引得到新的乱序后的data和label

data = data[index]
label = label[index]

  

时间: 2024-10-27 00:09:32

Python/Keras如何将给定的数据集打乱的相关文章

利用keras搭建CNN进行mnist数据集分类

当接触深度学习算法的时候,大家都很想自己亲自实践一下这个算法,但是一想到那些复杂的程序,又感觉心里面很累啊,又要学诸如tensorflow.theano这些框架.那么,有没有什么好东西能够帮助我们快速搭建这个算法呢?当然是有咯!,现如今真不缺少造轮子的大神,so,我强烈向大家推荐keras,Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow或Theano.Keras为支持快速实验而生,能够把你的idea迅速转换为结果. 具体keras的安装与使用,请参

Python Keras module 'keras.backend' has no attribute 'image_data_format'

问题: 当使用Keras运行示例程序mnist_cnn时,出现如下错误: 'keras.backend' has no attribute 'image_data_format' 程序路径https://github.com/fchollet/keras/blob/master/examples/mnist_cnn.py 使用的python conda环境是udacity自动驾驶课程的carnd-term1 故障程序段: if K.image_data_format() == 'channels

AttributeError: module 'tensorflow.python.keras.backend' has no attribute 'get_graph'处理办法

原因:安装的tensorflow版本和keras版本不匹配,只需卸载keras,重新安装自己tensorflow对应的版本. Keras与tensorflow版本匹配查询网站 AttributeError: module 'tensorflow.python.keras.backend' has no attribute 'get_graph'处理办法 原文地址:https://www.cnblogs.com/dyc99/p/12538440.html

Keras 最新《面向小数据集构建图像分类模型》

本文地址:http://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html 本文作者:Francois Chollet 按照官方的文章实现过程有一些坑,彻底理解代码细节实现,理解keras的api具体使用方法 也有很多人翻译这篇文章,但是有些没有具体实现细节 另外keres开发者自己有本书的jupyter:Companion Jupyter notebooks for th

Python+Keras+TensorFlow车牌识别

这个是我使用的车牌识别开源项目的地址:https://github.com/zeusees/HyperLPR Python 依赖 Anaconda for Python 3.x on Win64 Keras (>2.0.0) Theano(>0.9) or Tensorflow(>1.1.x) Numpy (>1.10) Scipy (0.19.1) OpenCV(>3.0) Scikit-image (0.13.0) PIL 准备工作:安装以下依赖包 pip install

python实现HOG+SVM对CIFAR-10数据集分类(上)

本博客只用于学习,如果有错误的地方,恳请指正,如需转载请注明出处. 看机器学习也是有一段时间了,这两天终于勇敢地踏出了第一步,实现了HOG+SVM对图片分类,具体代码可以在github上下载,https://github.com/subicWang/HOG-SVM-classifer.大家都说HOG+SVM是在行人检测中很合拍的一对.至于为啥,我也讲不清楚.我猜想这么合拍的一对应用在图片分类上效果应该也不错吧,事实证明确实还行,速度挺快,分类正确率还行.我用的数据集是http://www.cs.

python小练习:给定一个非空且为正整数的列表 按重复次数 降序排列输出

假设有个列表  a=[1,1,1,2,2,4,5,5,5,5] (非空且为正整数) 那么根据要求 最终输出的形式为  5,1,2,4  (按重复次数 降序排列输出) 代码实现及解释: a=[1,1,1,2,2,4,5,5,5,5]num=[] for i in a: s = a.count(i) num.append(s)#取出数字出现的次数 放进num中 num1 = sorted(num,reverse=True)# 降序排列num 并赋值给num1num2=list(set(num1))#

【tf.keras】在 cifar 上训练 AlexNet,数据集过大导致 OOM

cifar-10 每张图片的大小为 32×32,而 AlexNet 要求图片的输入是 224×224(也有说 227×227 的,这是 224×224 的图片进行大小为 2 的 zero padding 的结果),所以一种做法是将 cifar-10 数据集的图片 resize 到 224×224. 此时遇到的问题是,cifar-10 resize 到 224×224 时,32G 内存都将无法完全加载所有数据,在归一化那一步(即每个像素点除以 255)就将发生 OOM(out of memory)

机器学习经典分类算法 —— k-均值算法(附python实现代码及数据集)

目录 工作原理 python实现 算法实战 对mnist数据集进行聚类 小结 附录 工作原理 聚类是一种无监督的学习,它将相似的对象归到同一个簇中.类似于全自动分类(自动的意思是连类别都是自动构建的).K-均值算法可以发现k个不同的簇,且每个簇的中心采用簇中所含值的均值计算而成.它的工作流程的伪代码表示如下: 创建k个点作为起始质心 当任意一个点的簇分配结果发生改变时 对数据集中的每个数据点 对每个质心 计算质心与数据点之间的距离 将数据点分配到距其最近的簇 对每一个簇,计算簇中所有点的均值并将