2.9 logistic回归中的梯度下降法(非常重要,一定要重点理解)

  1. 怎么样计算偏导数来实现logistic回归的梯度下降法

    1. 它的核心关键点是其中的几个重要公式用来实现logistic回归的梯度下降法
  2. 接下来开始学习logistic回归的梯度下降法

  1. logistic回归的公式

    1. 现在只考虑单个样本的情况,关于该样本的损失函数定义如上面第三个公式,其中a是logistic回归的输出,y是样本的基本真值标签值,
  2. 下面写出该样本的偏导数流程图
    1. 假设样本只有两个特征x1和x2
    2. 为了计算Z,我们需要输入参数w1和w2和b
      1. 因此在logistic回归中,我们要做的就是变换参数w和b的值,来最最小化损失函数,
    3. 在前面,我们已经前向传播步骤,在单个训练样本上,计算损失函数,现在我们开始讨论怎么样向后计算偏导数,(重点)
      1. 要想计算损失函数L的导数,
        1. 首先,我们需要向前一步,先计算损失函数的导数,计算函数L关于a的导数,在代码中,只需要使用da来表示这个变量,

          1. 事实上,
          2. 损失函数导数的计算公式就是这样,最终结果关于变量a的导数
        2. 现在可以再向后一步,计算dz,dz是损失函数关于z的导数,
          1. 事实上
        3. 现在,向后传播的最后一步,w和b需要如何变化,
          1. 特别的关于w1的导数(函数L对w1求导)

          2. 关于w2的求导
          3. 关于b的求导
            1. db=dz=a-y
        4. 因此,关于单个样本的梯度下降法,所需要做的就是使用这个计算公式计算dz,然后计算dw1、dw2、db,然后
          1. 更新w1位w1减去学习率乘以dw1
          2. 更新w2位w2减去学习率乘以dw2
          3. 更新b为b减去学习率乘以db
        5. 这就是单个样本实例的一次梯度更新步骤
    4. 但是训练logistic回归模型,不仅仅只有一个训练样本,而是有m个训练样本的整个训练集,
      1. 下一节将会介绍,这些想法是如何应用到整个训练样本集当中的。而不仅仅是单个样本。

来自为知笔记(Wiz)

时间: 2024-10-14 03:23:47

2.9 logistic回归中的梯度下降法(非常重要,一定要重点理解)的相关文章

逻辑回归(logistic-regression)之梯度下降法详解

引言 逻辑回归常用于预测疾病发生的概率,例如因变量是是否恶性肿瘤,自变量是肿瘤的大小.位置.硬度.患者性别.年龄.职业等等(很多文章里举了这个例子,但现代医学发达,可以通过病理检查,即获取标本放到显微镜下观察是否恶变来判断):广告界中也常用于预测点击率或者转化率(cvr/ctr),例如因变量是是否点击,自变量是物料的长.宽.广告的位置.类型.用户的性别.爱好等等. 本章主要介绍逻辑回归算法推导.梯度下降法求最优值的推导及spark的源码实现. 常规方法 一般回归问题的步骤是: 1. 寻找预测函数

斯坦福《机器学习》Lesson4感想--1、Logistic回归中的牛顿方法

在上一篇中提到的Logistic回归是利用最大似然概率的思想和梯度上升算法确定θ,从而确定f(θ).本篇将介绍另一种求解最大似然概率?(θ)的方法,即牛顿迭代法. 在牛顿迭代法中,假设一个函数是,求解θ值使得f(θ)=0.在图1中可知, 图1 选择一个点,对应函数值为,并将对应的切线与x轴相交的点记为,所以 ,依此类推可知牛顿迭代规律. 为了求得最大似然概率?(θ),让,所以牛顿迭代方法确定最大似然概率的公式为: 在Logistic回归中,θ是一个向量.因此公式可表示为: H是一个n*n的矩阵,

对数几率回归法(梯度下降法,随机梯度下降与牛顿法)与线性判别法(LDA)

本文主要使用了对数几率回归法与线性判别法(LDA)对数据集(西瓜3.0)进行分类.其中在对数几率回归法中,求解最优权重W时,分别使用梯度下降法,随机梯度下降与牛顿法. 代码如下: 1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # @Date : 2017-05-09 15:03:50 4 # @Author : whb ([email protected]) 5 # @Link : ${link} 6 # @Version : $Id$

在matlab中实现梯度下降法

梯度下降法的原理,本文不再描述,请参阅其它资料. 梯度下降法函数function [k ender]=steepest(f,x,e),需要三个参数f.x和e,其中f为目标函数,x为初始点,e为终止误差.输出也为两个参数,k表示迭代的次数,ender表示找到的最低点. steepest.m: function [k ender]=steepest(f,x,e) %梯度下降法,f为目标函数(两变量x1和x2),x为初始点,如[3;4] syms x1 x2 m; %m为学习率 d=-[diff(f,

2.2 logistic回归损失函数(非常重要,深入理解)

上一节当中,为了能够训练logistic回归模型的参数w和b,需要定义一个成本函数 使用logistic回归训练的成本函数 为了让模型通过学习来调整参数,要给出一个含有m和训练样本的训练集 很自然的,希望通过训练集找到参数w和b,来得到自己得输出 对训练集当中的值进行预测,将他写成y^(I)我们希望他会接近于训练集当中的y^(i)的数值 现在来看一下损失函数或者叫做误差函数 他们可以用来衡量算法的运行情况 可以定义损失函数为y^和y的差,或者他们差的平方的一半,结果表明你可能这样做,但是实际当中

对线性回归,logistic回归和一般回归的认识

假设有一个房屋销售的数据如下:这个表类似于北京5环左右的房屋价钱,我们可以做出一个图,x轴是房屋的面积.y轴是房屋的售价,如下: 如果来了一个新的面积,假设在销售价钱的记录中没有的,我们怎么办呢? 我们可以用一条曲线去尽量准的拟合这些数据,然后如果有新的输入过来,我们可以在将曲线上这个点对应的值返回.如果用一条直线去拟合,可能是下面 的样子:绿色的点就是我们想要预测的点. 首先给出一些概念和常用的符号. 房屋销售记录表:训练集(training set)或者训练数据(training data)

机器学习公开课笔记(3):Logistic回归

Logistic 回归 通常是二元分类器(也可以用于多元分类),例如以下的分类问题 Email: spam / not spam Tumor: Malignant / benign 假设 (Hypothesis):$$h_\theta(x) = g(\theta^Tx)$$ $$g(z) = \frac{1}{1+e^{-z}}$$ 其中g(z)称为sigmoid函数,其函数图象如下图所示,可以看出预测值$y$的取值范围是(0, 1),这样对于 $h_\theta(x) \geq 0.5$, 模

《机器学习实战》学习笔记:Logistic回归&预测疝气病证的死亡率

前言: 生活中,人们经常会遇到各种最优化问题,比如如何在最短时间从一个地点到另外一个地点?如何在投入最少的资金而却能得到最高的受益?如何设计一款芯片使其功耗最低而性能最好?这一节就要学习一种最优化算法--Logistic回归,设计最优化算法的目的依然是用于分类.在这里,Logistic回归的主要思想是根据现有的数据对分类边界线建立回归公式,达到分类的目的.假设我们有一堆数据,需要划一条线(最佳直线)对其分类,这就是Logistic回归的目的. 而"Logistic回归"中的"

【机器学习基础】Logistic回归基础

soft binary classification Logistics回归模型要解决的是分类问题,在之前的二元分类问题中,我们将数据分成正例和负例,但是像PLA算法一样,用单位阶跃函数来处理的这种瞬间跳跃的过程有时很难处理.于是,我们希望能得到正例的概率值是多少. logistic regression的假设 我们在PLA和线性回归算法中都用数据的加权来计算一个分数s,在logistic回归中,我们用sigmoid函数来将这个分数s转化成0到1的概率值. 所以,用下面的h(x)来表示一个假设,