Torch深度学习教程(一)

本博文目标是介绍Torch的入门使用

博主采用iTorch界面编写,以下以图片方式展示代码。

如果记不清哪个方法的名字了可以在iTorch里面点“Tab”键会有智能输入,类似matlab

  • 简单地介绍String,numbers,tables

字符串的操作注意是单引号,然后第二行中的print()函数有点像c++里面的cout,即可以根据输入的要打印的类型不同而显示,这输入式字符串,后面还会输入其他数据格式的输入。由于torch是交互式的,跟matlab很像所以直接打a也能显示输出。

b是声明一个类似Array的数组类型,没有赋初值打印时显示为空。

分别给数组赋值,第一个数组元素为字符串a,第二个为整型30,同样的调用print()和直接打b,打印的效果一样。值得注意的是,这里的输出是数组序号和数组元素一起打印出来的。

接着看一下一个简单的循环,这个是lua的数组for循环,在“#”要加循环使用的数组名,默认是i++的形式循环,可以改成i = i + 2或者其他形式,具体看下图体会

这是没两次打印元素,所以应该打印第一个数组元素“hello”和第三个,但是数组没有第三个所以结果如上图

以上两图,应该能更好的说明循环

时间: 2024-11-08 23:49:05

Torch深度学习教程(一)的相关文章

Torch深度学习教程(二)

Torch里非常重要的结构Tensor(张量),类似于Python用的Numpy 声明Tensor的格式如12行,打印a可以得到一个5x3的矩阵,这里的没有赋初值,但是Torch也会随即赋值的,具体的就跟c++里面的生命了变量虽没有初始化,但是还是会有值一样. 接着我们调用rand随即初始化矩阵的值(注意这里跟我上面说的随即初始化的区别). 也可以直接调用随即初始化Tensor的值,如16行的代码,与a的随即初始化5x3矩阵是一样的,这里b是3x4矩阵. 矩阵的乘实现的第一种方法 矩阵的乘实现的

Deep Learning 十_深度学习UFLDL教程:Convolution and Pooling_exercise(斯坦福大学深度学习教程)

前言 理论知识:UFLDL教程和http://www.cnblogs.com/tornadomeet/archive/2013/04/09/3009830.html 实验环境:win7, matlab2015b,16G内存,2T机械硬盘 实验内容:Exercise:Convolution and Pooling.从2000张64*64的RGB图片(它是the STL10 Dataset的一个子集)中提取特征作为训练数据集,训练softmax分类器,然后从3200张64*64的RGB图片(它是th

Deep Learning九之深度学习UFLDL教程:linear decoder_exercise(斯坦福大学深度学习教程)

前言 实验内容:Exercise:Learning color features with Sparse Autoencoders.即:利用线性解码器,从100000张8*8的RGB图像块中提取彩色特征,这些特征会被用于下一节的练习 理论知识:线性解码器和http://www.cnblogs.com/tornadomeet/archive/2013/04/08/3007435.html 实验基础说明: 1.为什么要用线性解码器,而不用前面用过的栈式自编码器等?即:线性解码器的作用? 这一点,Ng

Deep Learning 12_深度学习UFLDL教程:Sparse Coding_exercise(斯坦福大学深度学习教程)

前言 理论知识:UFLDL教程.Deep learning:二十六(Sparse coding简单理解).Deep learning:二十七(Sparse coding中关于矩阵的范数求导).Deep learning:二十九(Sparse coding练习) 实验环境:win7, matlab2015b,16G内存,2T机械硬盘 本节实验比较不好理解也不好做,我看很多人最后也没得出好的结果,所以得花时间仔细理解才行. 实验内容:Exercise:Sparse Coding.从10张512*51

Deep Learning 十一_深度学习UFLDL教程:数据预处理(斯坦福大学深度学习教程)

理论知识:UFLDL数据预处理和http://www.cnblogs.com/tornadomeet/archive/2013/04/20/3033149.html 数据预处理是深度学习中非常重要的一步!如果说原始数据的获得,是深度学习中最重要的一步,那么获得原始数据之后对它的预处理更是重要的一部分. 1.数据预处理的方法: ①数据归一化: 简单缩放:对数据的每一个维度的值进行重新调节,使其在 [0,1]或[ − 1,1] 的区间内 逐样本均值消减:在每个样本上减去数据的统计平均值,用于平稳的数

Deep Learning五:PCA and Whitening_Exercise(斯坦福大学UFLDL深度学习教程)

前言 本文是基于Exercise:PCA and Whitening的练习. 理论知识见:UFLDL教程. 实验内容:从10张512*512自然图像中随机选取10000个12*12的图像块(patch),然后对这些patch进行99%的方差保留的PCA计算,最后对这些patch做PCA Whitening和ZCA Whitening,并进行比较. 实验步骤及结果 1.加载图像数据,得到10000个图像块为原始数据x,它是144*10000的矩阵,随机显示200个图像块,其结果如下: 2.把它的每

UFLDL深度学习教程翻译之自我学习

一.概述 假设我们有足够强大的学习算法,得到较好结果的其中一种最靠谱的方法是给算法提供更多的数据.这验证了在机器学习的那句格言:"有时候获胜的不是谁有最好的算法,而是谁有最多的数据." 也许有人总能得到有标记的数据,但这么做成本很高.特别地,研究人员已经采用极致的工具例如AMT(亚马逊土耳其机器人)来得到大量训练集.尽管拥有大量的人们人工标记的数据相比拥有大量的研究人员的工程性质的特征已经迈进了一步,但还能做的更好.特别地,自我学习以及无监督特征学习的方法是说,如果我们让我们的算法从无

Deep Learning三:PCA in 2D_Exercise(斯坦福大学UFLDL深度学习教程)

前言 这节主要是练习下PCA,PCA Whitening以及ZCA Whitening在2D数据上的使用,2D的数据集是45个数据点,每个数据点是2维的. 一些matlab函数 彩色分散点图函数:scatter(x,y,c,s) x, y为两个矢量,用于定位数据点,s为绘图点的大小,c为绘图所使用的色彩,s和c均可以以矢量或表达式形式给出,s和c为与x或y同长度的矢量时标记点尺 寸和颜色将按线性规律变化.在 scatter函数的前4各参数之后还可以增加第五个参数‘ filled‘,表示填充绘图点

Torch7深度学习教程(三)

函数的使用 这是函数的定义方式,声明的关键字+定义的函数名+形参的名字,在此博主返回两个值,具体的函数功能在后面再说 这是初始化一个5x2的矩阵,并且初值都为1.这里有多了一种初始化矩阵的方法. 这是先声明一个2x5的矩阵,然后再调用fill()方法其值全部初始化为4. 将a,b矩阵输入到addTensors函数里面,注意这里是实参,前面定义的a,b是形参,这个有点c基础的应该都分的清楚吧.打印结果就是返回a矩阵和axb的矩阵. 这样子写更像matlab,返回的a和axb分别按顺序赋值给c,d.