UFLDL教程之Softmax回归

关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章

下面,对Logistic回归做一个简单的小结:

给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步:

① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度

② 如果hθ(x)>=0.5,则x输入正类,否则,x属于负类

或者直接利用判别边界进行判断,即:如果θ‘x>=0,则x输入正类,否则,x属于负类

所以,Logistic回归只能解决两类分类问题。

************************

这里一个很重要的问题就是,在对待分类样本进行分类之前,需要利用训练样本对该逻辑回归模型的参数θ=[θ1, θ2, ..., θn]进行求解

最优化的模型参数就是使代价函数取得最小值的参数,所以,只要利用优化,找到使得代价函数具有最小值的参数即可。

(1)给定参数theta的初始值

(2)利用函数fminunc对代价函数进行优化,求得最优化的theta值

该函数要求输入theta的初始值、梯度和代价函数的计算函数、其他设置

(3)得到最优化的theta值后,对于某一个待分类样本,计算它的假设函数取值或者是判定边界的取值,从而可以对其分类进行判别

************************

下面开始是softmax回归问题

第0步:初始化参数

①样本特征维数n (inputSize)

②样本类别数k (numClasses)

③衰减项权重  (lambda)

第一步:载人MNIST数据集

① 载入MNIST数据集

② 载入MNIST数据集的标签

在标签集中,标签0表示数字0,为了后续处理方便,将数字0的标签改为10

注1:实验中,有时为了调试方便,在调试时,可以加入合成数据;

注2:程序文件夹中,为了分类方便,将MNIST数据集和MNIST数据集的操作函数都存放在MNIST文件夹中,在使用前,加入语句addpath mnist/即可;

随机产生参数theta的初始值

它的维数是k*n,k是类别数numClasses,n是输入样本的特征维数inputSize

第二步:编写softmax函数

该函数的作用是计算代价函数及代价函数的梯度

(1)计算代价函数

① 代价函数的计算公式如下:

② 程序中的向量化计算方法如下:

(2) 计算梯度

① 梯度的计算公式如下:

② 程序中向量化计算方法如下:

第三步:梯度检验

在首次编写完softmax函数后,要利用梯度检验算法,验证编写的softmaxCost函数是否正确;直接调用checkNumericalCradient函数

第四步:利用训练样本集学习Softmax的回归参数

第五步:对于某一个待分类样本,利用求得的softmax回归模型对其进行分类

******关于向量化的程序公式的推导******

(1)已知参数的形式

① 参数θ的形式

② 输入数据x的形式

θx的乘积形式,记为矩阵M

(2)单个样本的成本函数

① 单个样本的成本函数

即:

② 单个样本的假设函数

但实际中,为了不会出现计算上的溢出,需要对假设函数的每一项都做如下调整

其中:

则有:

(3)m个样本的成本函数

m个样本的成本函数

m个样本的假设函数

其中:

(4) 计算梯度

① 单个样本的梯度计算

注1:

注2:

② m个样本梯度的计算

则有:

时间: 2024-08-10 03:08:18

UFLDL教程之Softmax回归的相关文章

UFLDL教程之self-taught learning

这里所谓的自学习,其实就是利用稀疏自编码器对无标签样本学习其特征 准备工作 (1)下载Yann Lecun的MNIST数据集 用到了如下的两个数据集: 程序开始 第0步:设置神经网络的结构 该神经网络包括三层: 输入层的神经元个数(数字识别,则设置输入的图像大小) 输出端的神经元个数(也就是类别数) 隐藏层神经元个数 另外一些关于系数编码的参数 sparsityParam.lambda.beta 最大迭代次数:maxIter 第一步:产生训练数据集和测试数据集 (1)导入数据集mnistData

ufldl学习笔记与编程作业:Softmax Regression(softmax回归)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节学习链接:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/ softmax回归其实是逻

UFLDL教程笔记及练习答案三(Softmax回归与自我学习)

1:softmax回归 当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归.教程中已经给了cost及gradient的求法.需要注意的是一般用最优化方法求解参数theta的时候,采用的是贝叶斯学派的思想,需要加上参数theta. 习题答案: (1) 数据加载------代码已给 (2) %% STEP 2: Implement softmaxCost   得到计算cost和gradient M = theta

UFLDL教程(四)之Softmax回归

关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章. 下面,对Logistic回归做一个简单的小结: 给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步: ① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度 ② 如果hθ(x)>=0.5,则x输入正类,否则,x属于负类 或者直接利用判别边界进行判断,即:如果θ'x>=0,则x输入正类,否则,x属于负类 所

UFLDL教程笔记及练习答案三(Softmax回归与自我学习***)

1:softmax回归 当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归. 教程中已经给了cost及gradient的求法.须要注意的是一般用最优化方法求解參数theta的时候,採用的是贝叶斯学派的思想,须要加上參数theta. softmax回归 习题的任务就是用原有的像素数据集构建一个softmax回归模型进行分类.准确率略低 92.6%,. 而自我学习是用5~9之间的数据集当做无标签的数据集,然后构建

Softmax回归

Reference:http://ufldl.stanford.edu/wiki/index.php/Softmax_regression 起源:Logistic的二类分类    Softmax回归是Logistic回归的泛化版本,用于解决线性多类(K类)的分类问题.Logistic回归可以看作是Softmax回归在K=2时的特例. ①如何从2类转化为K类? 解决方案是引入K组(W.b)参数,选择$max P(Y=j|x^{i},\theta,b)$作为最终分类即可. 由于存在K组参数,原来的$

DeepLearning tutorial(1)Softmax回归原理简介+代码详解

DeepLearning tutorial(1)Softmax回归原理简介+代码详解 @author:wepon @blog:http://blog.csdn.net/u012162613/article/details/43157801 本文介绍Softmax回归算法,特别是详细解读其代码实现,基于python theano,代码来自:Classifying MNIST digits using Logistic Regression,参考UFLDL. 一.Softmax回归简介 关于算法的详

Softmax回归(Softmax Regression, K分类问题)

Softmax回归:K分类问题, 2分类的logistic回归的推广.其概率表示为: 对于一般训练集: 系统参数为: Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到: 令θ=θ0-θ1,就得到了logistic回归.所以实际上logistic回归虽然有2个参数向量,但这2个参数向量可以退化到1个参数向量.推广到K个类别,那么就需要K-1个参数向量 参数求解 类似于logistic regression,求最大似然概率,有: 其中1{k=y}为真值

ios系类教程之用instruments来检验你的app

ios系类教程之用instruments来检验你的app 为了节省大家的时间,提供一个演示的Demo给大家.代码传送门.下载后解压然后用xcode打开.编译运行APP后 然后在搜索框内输入任意词汇,点击结果你会看到下面的结果 正如你所见的,这个app很简单.程序其实调用的是Flickr的API,通过app顶部的搜索框执行搜索后在下面的tableview显示你搜索的搜索词,搜索词后面的括号内有搜索结果的个数,点击此行进入一个略所图的结果列表页面 如上图. 点击其中一行 进入图像的大图模式,在这个页