关于梯度下降算法的的一些总结

目录:

1. 前言

2. 正文

  2.1 梯度

2.2 梯度下降算法

2.2.1 批量梯度下降算法

2.2.2 随机梯度下降算法

3.参考文献

1.前言

    这篇随笔,记录的是个人对于梯度算法的些许理解. 由于充斥着太多关于梯度算法的各种说明软文,所以呢?

本文是从一个实例出发,来逐步使用各种算法进行求解,并顺便试图将每一种算法,按照自己的理解来阐述一遍.

好了 , 让我们愉快的开始吧~~~~~~~~

注: 本文的核心思想主要是基于在斯坦福cs299的讲义上.

2  正文

为了不显得阐述过于唐突,我们还是简单的对我们要说明的对象进行描绘一下吧~.

我们说的梯度算法 ,又称最速下降法 ,可以从它的名称中看出来,它就是用来快速寻找下降方向的(在数学上又叫做局部极小值).至于为什么叫做梯度算法,

是因为其中使用到了梯度来计算其下降的方向,首先阐述一下梯度吧~

2.1  梯度

梯度:  是表示模型或者函数在某个点的位置法向量,所以它的方向表示下降最快或者上升最快也就很好理解了~

,

如果想对梯度定义有更加细致的了解,可以去看看大学微积分相关课程吧

我们来通过这样一个简单的平面来进行说明: ax+by+c=0求解:我们直到它的法向量为(a,b),由于是一个平面所以法向量是固定的,但是

如果我们将这个平面掰歪,使其成为一个曲面呢?  (函数如下图)

我们可以求解(通过对方程进行偏导数,其实就是(2ax,2by),由于是曲面,所以发现的方向也是随着(x,y)坐标而改变的. 然后我们不妨

在回来看一下梯度的定义:

可以发现上面的那个求解方式,其实和梯度求解的方式是一样的.(详情可以去查阅梯度的wiki),说完了梯度之后,我们来进一步说一下

梯度算法使如何使用到梯度(grad)来进行快速下降或者上升的吧.

2.2 梯度下降算法

为了更好的说明梯度下降算法,首先我们来看看下面这个例子吧~

我们使用Rosenbrock函数,使用梯度下降法来求解它的最小值(也就是如何能够快速的进入跑到谷底).

首先展示一下该函数的模型:

该模型的代码:

 1 # -*- coding: utf-8 -*-
 2 import numpy as np
 3 from matplotlib import pyplot as plt
 4 from mpl_toolkits.mplot3d import Axes3D
 5 from matplotlib import animation as amat
 6
 7 "this function: f(x,y) = (1-x)^2 + 100*(y - x^2)^2"
 8
 9
10 def Rosenbrock(x, y):
11     return np.power(1 - x, 2) + np.power(100 * (y - np.power(x, 2)), 2)
12
13
14 def show(X, Y, func=Rosenbrock):
15     fig = plt.figure()
16     ax = Axes3D(fig)
17     X, Y = np.meshgrid(X, Y, sparse=True)
18     Z = func(X, Y)
19     plt.title("gradeAscent image")
20     ax.plot_surface(X, Y, Z, rstride=1, cstride=1, cmap=‘rainbow‘, )
21     ax.set_xlabel(‘x label‘, color=‘r‘)
22     ax.set_ylabel(‘y label‘, color=‘g‘)
23     ax.set_zlabel(‘z label‘, color=‘b‘)
24     amat.FuncAnimation(fig, Rosenbrock, frames=200, interval=20, blit=True)
25     plt.show()
26
27 if __name__ == ‘__main__‘:
28     X = np.arange(-2, 2, 0.1)
29     Y = np.arange(-2, 2, 0.1)
30     Z = Rosenbrock(X, Y)
31     show(X, Y, Rosenbrock)

我们求解出它的梯度方向grad(f(x,y)) = (  -2*( 1 - x ) -400( y - x*x )*x ,  200( y - x*x ) )沿着该梯度的反方向就可以快速确定x,y位置的最小点.

即最小值 f(1,1)min = 0

效果图1:

数据变化1:

效果图2:

数据变化截图:

附上这部分代码:

 1 # -*- coding: utf-8 -*-
 2 import random
 3
 4 import numpy as np
 5 from matplotlib import pyplot as plt
 6 from mpl_toolkits.mplot3d import Axes3D
 7 from matplotlib import animation as amat
 8
 9 "this function: f(x,y) = (1-x)^2 + 100*(y - x^2)^2"
10
11
12 def Rosenbrock(x, y):
13     return np.power(1 - x, 2) + np.power(100 * (y - np.power(x, 2)), 2)
14
15
16 def show(X, Y, func=Rosenbrock):
17     fig = plt.figure()
18     ax = Axes3D(fig)
19     X, Y = np.meshgrid(X, Y, sparse=True)
20     Z = func(X, Y)
21     plt.title("gradeAscent image")
22     ax.plot_surface(X, Y, Z, rstride=1, cstride=1, cmap=‘rainbow‘, )
23     ax.set_xlabel(‘x label‘, color=‘r‘)
24     ax.set_ylabel(‘y label‘, color=‘g‘)
25     ax.set_zlabel(‘z label‘, color=‘b‘)
26     plt.show()
27
28
29 def drawPaht(px, py, pz, X, Y, func=Rosenbrock):
30     fig = plt.figure()
31     ax = Axes3D(fig)
32     X, Y = np.meshgrid(X, Y, sparse=True)
33     Z = func(X, Y)
34     plt.title("gradeAscent image")
35     ax.set_xlabel(‘x label‘, color=‘r‘)
36     ax.set_ylabel(‘y label‘, color=‘g‘)
37     ax.set_zlabel(‘z label‘, color=‘b‘)
38     ax.plot_surface(X, Y, Z, rstride=1, cstride=1, cmap=‘rainbow‘, )
39     ax.plot(px, py, pz, ‘r.‘)  # 绘点
40     plt.show()
41
42
43 def gradeAscent(X, Y, Maxcycles=10000, learnRate=0.0008):
44     # x, Y = np.meshgrid(X, Y, sparse=True)
45     new_x = [X]
46     new_Y = [Y]
47     g_z=[Rosenbrock(X, Y)]
48     current_x = X
49     current_Y = Y
50     for cycle in range(Maxcycles):
51         "为了更好的表示grad,我这里对表达式不进行化解"
52         current_Y -= learnRate * 200 * (Y - X * X)
53         current_x -= learnRate * (-2 * (1 - X) - 400 * X * (Y - X * X))
54         X = current_x
55         Y = current_Y
56         new_x.append(X)
57         new_Y.append(Y)
58         g_z.append(Rosenbrock(X, Y))
59     return new_x, new_Y, g_z
60
61
62 if __name__ == ‘__main__‘:
63     X = np.arange(-3, 4, 0.1)
64     Y = np.arange(-3, 4, 0.1)
65     x = random.uniform(-3, 4)
66     y = random.uniform(-3, 4)
67     print x,y
68     x, y, z = gradeAscent(x, y)
69     print len(x),x
70     print len(y),y
71     print len(z),z
72     drawPaht(x, y, z, X, Y, Rosenbrock)

如上题,在数学上,我们使用梯度可以无限的逼近函数的最小点.但是在工业上呢? 我们如何对一些一个数据集进行处理呢?

很明显的思路是将其转化成一个函数,打比赛的时候,面对这些数据,我们会使用生成函数方式来构造一个,我们称之为生成函数,或者母函数或者其他吧~,但是

电脑面对这一滩数据的时候,通常是这样的

      

所以还是需要我们手动给予一个通用表达式,比如线性的我们需要设定它为y=kx+b,然后在给电脑这些数据,告诉它说,这些个数据是线性相关的,

你去找到一个k,b是这些点尽可能的满足这个方程吧!,而这个过程我们又将它称之为拟合过程.

所以呢? 面对一滩数据,而我们给定了一个通用的表达式比如:

              

  其中w为每一个特征变量的权重,比如特征X1的权重为W1,,我们设定x0=1,然后我们将其简化为:

                      

    如果我们在将其转化成多维空间的话,其实可以使用还可以这样:

                            

  但是到这里,这里依旧还只是一个通试而已,那么我们该如何使用其那些数据呢?

这时候,我们需要来引入一个新的函数,来评估这个通式(我们可以随机给这个式子权重赋值)与实际的值是否在可接收的范围!~ 

              

  这个函数称谓有两种,一种是损失函数(Loss function),一种是误差函数(Error function),我们在这里就称它为损失函数好了,

说明一下这个式子的含义:  

      J表示给定的函数预测值和实际值Y的均方差,它反映的是预测值与实际值的一个偏离的程度. 但我们说完这些,再结合上面的那个题,

那么我们是否就想到点什么?

  是的我们是否可以用梯度下降算法来快速的无限逼近,使得J最达到最小,当J达到最小的时候,那么我们这个时候的,不就是无限接近真是且理想的的那个权重么?

然后我们再按照梯度的方向逐步的移动,慢慢的逼近收敛值.用表达式表示为:

                  

其中需要说明的是:

  阿尔法表示的一个学习率,之所以添加这个学习率,是因为我们使用的是均方差,如果我们随机的方程预测的值与实际的值偏差比较大的话,

均方差的值将会非常巨大,这样的话,可能造成我们的这个损失函数出现大幅度的摆钟行为,所以为了避免出现,这个值就这么的诞生了,这个值的大小,

可以用来调整我们移动的的步子大小,不要调的太大(一般设定在0.0001),当然也应场景而定哈~,还需要解释的是:

            表示的是损失函数的权重梯度,那么对于这个梯度,化简为:

    

              

2.2.1 批量梯度下降算法(BGD)

得到上面的推倒之后, 所以我们可以用,替换掉中的,然后我们将会得到这样一个方程:

,解释一下这个方程吧~:

如何去理解这个方程中的i,j,恩,下标j其实就是我们的对应的第j个权重,i表示的第i组训练数据,如果还迷糊的话,我们用一点伪代码来表示一下吧:

"这里权重用W表示 , trainingSet 表示训练数据集合 "
for i in range(len(trainingSet)):
    "n 表示有多少个特征Xj (j属于[1,n])"
    for j in range(n):
       w -= a*(yi - h(xi))Xij

而这种方式,是将所有的样本M都参与进去训练,然后得到一个权重值w.这种方式,我们称之为批量梯度下降算法,也就是BGD. 是的,看看吧,其实并不是很难懂对吧~. 但是

,这个算法有个缺点,我们算法时间复杂度为O(n^2),当样本量比较大的话,计算量就会变得很大,所以这种方式适用的范围,仅是对那些样本较小的数据而言,对于大数据量样本而言,这个还是不太好的.那么有没有时间复杂度比O(n^2)低一点的算法呢,? 是有的

2.2.2 随机梯度下降算法(SGD)

随机梯度下降算法,这个介绍起来就不那么好统一了,但是它的大体思路就是: 在给定的样本集合M中,随机取出副本N代替原始样本M来作为全集,对模型进行训练.这种训练由于是抽取部分数据,所以有较大的几率得到的是,一个局部最优解.但是一个明显的好处是,如果在样本抽取合适范围内,既会求出结果,而且速度还快.对于随机梯度下降算法的各种变种,详情请看这篇博客>An overview of gradient descent optimization algorithms.

3.参考文献:

  http://sebastianruder.com/optimizing-gradient-descent/index.html各种随机梯度算法变种.

  http://cs229.stanford.edu/materials.html 斯坦福机器学习讲义第一章.

  https://blog.slinuxer.com/2016/09/sgd-comparisonsgd算法比较

https://en.wikipedia.org/wiki/Gradient_descent 维基百科

时间: 2024-10-06 20:58:36

关于梯度下降算法的的一些总结的相关文章

简单多元线性回归(梯度下降算法与矩阵法)

多元线性回归是最简单的机器学习模型,通过给定的训练数据集,拟合出一个线性模型,进而对新数据做出预测. 对应的模型如下: n: 特征数量. 一般选取残差平方和最小化作为损失函数,对应为: M:训练样本数量. 通过最小化代价损失函数,来求得 值,一般优化的方法有两种,第一是梯度下降算法(Gradient Descent),第二种是矩阵法(The normal equations). 梯度下降算法

自适应滤波:梯度下降算法

作者:桂. 时间:2017-04-01  06:39:15 链接:http://www.cnblogs.com/xingshansi/p/6654372.html 声明:欢迎被转载,不过记得注明出处哦~ [学习笔记07] 未完待续 前言 西蒙.赫金的<自适应滤波器原理>第四版第四章:最速下降算法.优化求解按照有/无约束分类:如投影梯度下降算法((Gradient projection)便是有约束的优化求解:按照一阶二阶分类:梯度下降(Gradient descent).Newton法等:按照偏

梯度下降算法笔记

今天课上主要讲的是梯度下降算法. 上一次老师留了梯度下降算法求解线性回归的作业.大部分用java和C++实现的. 笔记也主要来自课程ppt,老师课程的ppt也主要参考的斯坦福吴恩达老师的讲义. 梯度下降法(英语:Gradient descent)是一个一阶最优化算法,通常也称为最速下降法. 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索.如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点:这个过程则被称为梯度

梯度下降算法

首先定义几个符号: Xi vector[X]:input data Yi vector[Y]:output data h(X) hypothesis function 对于输入的数据给出预测值 Y is continous variation?regression problem(回归问题) Y is discrete variation?classification problem(分类问题) PART 1:线性回归 如图,蓝色的离散点是Xi,红色的线就是求出的回归函数. hypothesis

梯度下降算法的一点认识

昨天开始看Ng教授的机器学习课,发现果然是不错的课程,一口气看到第二课. 第一课 没有什么新知识,就是机器学习的概况吧. 第二课 出现了一些听不太懂的概念.其实这堂课主要就讲了一个算法,梯度下降算法.到了教授推导公式的时候感觉有点蒙,不过后来仔细想想,也大概理解了,这个算法并没有想象的晦涩.在这堂课中,梯度下降算法是为了解决线性回归问题的.视频中的例子是给你一堆训练数据,(房子面积和对应房价),如果此时给你一个没有出现过的房子面积数据,您能否给出正确的房价?解决思路是首先要看出来房子面积跟房价之

神经网络与深度学习(2):梯度下降算法和随机梯度下降算法

本文总结自<Neural Networks and Deep Learning>第1章的部分内容. 使用梯度下降算法进行学习(Learning with gradient descent) 1. 目标 我们希望有一个算法,能让我们找到权重和偏置,以至于网络的输出y(x) 能够拟合所有的训练输入x. 2. 代价函数(cost function) 定义一个Cost function (loss function, objective function): 目标函数,如下: C: 被称为二次代价函数

线性回归与梯度下降算法

线性回归与梯度下降算法 作者:上品物语 知识点: 线性回归概念 梯度下降算法 l  批量梯度下降算法 l  随机梯度下降算法 l  算法收敛判断方法 1.1   线性回归 在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回归系数的模型参数的线性组合. 回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析.如果回归分

梯度下降算法(Gradient Descent)

最近在搞论文,需要用梯度下降算法求解,所以重新整理分享在这里.主要包括梯度介绍.公式求导.学习速率选择.代码实现. 梯度下降的性质: 1.求得的解和选取的初始点有关 2.可以保证找到局部最优解,因为梯度最终会减小为0,即步长会自动越来越小. 梯度简介 一个多元函数的在某点的梯度方向是函数值在该点增长最快的方向,即方向导数取最大值的方向. 问题描述公式求导学习率选择 假设要学习这么一个函数: 那么损失函数可以定义成: 像这种优化问题有很多方法,那咱们先直接求导吧,对于求导过程,好多还是不理解,可以

感知机2 -- 随机梯度下降算法

声明: 1,本篇为个人对<2012.李航.统计学习方法.pdf>的学习总结.不得用作商用,欢迎转载,但请注明出处(即:本帖地址). 2,因为本人在学习初始时有非常多数学知识都已忘记.因此为了弄懂当中的内容查阅了非常多资料.所以里面应该会有引用其它帖子的小部分内容,假设原作者看到能够私信我.我会将您的帖子的地址付到以下. 3,假设有内容错误或不准确欢迎大家指正. 4,假设能帮到你,那真是太好了. 概述 随意选取一超平面w0.b0,然后用随机梯度下降算法不断极小化L(w, b). Ps: 极小化的