深度学习:逻辑回归

深度学习(Deep Learning)是机器学习(Machine Learning)的一大分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。

逻辑回归(Logistic Regression,也译作“对数几率回归”)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。

符号约定

逻辑回归一般用于二分类(Binary Classification)问题中,给定一些输入,输出结果是离散值。例如用逻辑回归实现一个猫分类器,输入一张图片xx,预测图片是否为猫,输出该图片中存在猫的概率结果yy。 

图片是一类非结构化的数据,在计算机中,一张图片以RGB编码方式存储时,是将它以红、绿、蓝为三基色,以每个像素点上三种颜色的十六进制颜色码进行编码,形成一个包含三个信道(Channel),各信道大小和图片的大小相同的矩阵。例如图中的猫图大小为64×6464×64,那么表示为矩阵后的每个信道大小即为64×6464×64。

模式识别(Pattern Recognition)以及机器学习中,处理的各种类型的数据都需要用一些特征向量来表示。为了将上例中的图片表示为一个特征向量xx,将每三个信道中三种颜色的值进行拆分重塑,最终形成的特征向量xx的维数为nx=64×64×3=12288nx=64×64×3=12288: 
 
实现一个猫分类器,需要准备大量的猫图及少量的非猫图,取其中大部分组成该分类器的训练样本,少部分组成测试样本。将这些样本都以上述的方式表示为特征向量的形式,则一个样本由一对(x,y)进行表示,其中x为nxnx维的特征向量,y是该特征向量的标签(Label),根据该特征向量表示的是猫或非猫,值为0或1。m个训练样本对将被表示为:

{(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))}{(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))}

将训练集的中的特征向量x(1)x(1)、x(2)x(2)…以及它们的标签y(1)y(1)、y(2)y(2)…分别堆叠起来,组成两个矩阵XX、YY:

X=[x(1),x(2),...,x(m)]X=[x(1),x(2),...,x(m)]

Y=[y(1),y(2),...,y(m)]Y=[y(1),y(2),...,y(m)]

则XX会是个大小为nx×mnx×m的矩阵,YY是个大小为1×m1×m的矩阵。

逻辑回归

逻辑回归是一种用于解决监督学习(Supervised Learning)问题的学习算法。进行逻辑回归的目的,是使训练数据的标签值与预测出来的值之间的误差最小化。

猫分类器要实现的,是给定以一个nxnx维特征向量xx表示,标签为yy的一张图片,估计这张图片为猫图的概率y^y^,即:

y^=p(y=1|x),0≤y^≤1y^=p(y=1|x),0≤y^≤1

有大量猫图的数据XX时,希望能用一个函数,来表示出y^y^。所以考虑使用线性拟合的方法,从大量数据中寻找规律,从而实现这个猫分类器。规定一个nxnx维向量ww和一个值bb作为参数,可得到线性回归的表达式:

y^=wTX+by^=wTX+b

由于y^y^为概率值,取值范围为[0,1][0,1],简单地进行线性拟合,得出的y^y^可能非常大,还可能为负值。这时,便需要一个逻辑回归单元来对其值域进行约束。以sigmoid函数为逻辑回归单元,而sigmoid函数的表达式为:

σ(z)=11+e?zσ(z)=11+e?z

其函数图像为: 

由函数图像可知,sigmoid函数有以下几个很好的性质: 
* 当zz趋近于正无穷大时,σ(z)=1σ(z)=1; 
* 当zz趋近于负无穷大时,σ(z)=0σ(z)=0; 
* 当z=0z=0时,σ(z)=0.5σ(z)=0.5。

所以可以用sigmoid函数来约束y^y^的值域,此时:

y^=σ(wTX+b)=11+e?(wTX+b)y^=σ(wTX+b)=11+e?(wTX+b)

成本函数

为了训练逻辑回归模型中的参数w和b,使得输出值y^y^与真实值y尽可能一致,即尽可能准确地判断一张图是否为猫,需要定义一个成本函数(Cost Function)作为衡量的标准。

用损失函数(Loss Function)来衡量单个样本预测值(y^(i)y^(i))与真实值(y(i)y(i))之间的差异,换句话说,损失函数用来计算单个训练样本的预测值与真实值之间的误差。平方误差(Square Loss)是一种常用的损失函数:

L(y^,y)=12(y^?y)2L(y^,y)=12(y^?y)2

但在逻辑回归中一般不使用这个损失函数,因为在训练参数过程中,使用这个损失函数将得到一个非凸函数,最终将存在很多局部最优解,这种情况下使用梯度下降(Gradient Descent)将无法获得最优解。对逻辑回归模型,希望满足条件概率:

p(y|x)={y^, 1?y^,(y=1)(y=0)p(y|x)={y^,(y=1) 1?y^,(y=0)

将上下两个式子合二为一,可写成:

p(y|x)=y^y(1?y^)(1?y)p(y|x)=y^y(1?y^)(1?y)

对两边取对数,进一步化简为:

log p(y|x)=ylog y^+(1?y)log (1?y^)log p(y|x)=ylog y^+(1?y)log (1?y^)

p(y|x)p(y|x)的值需要最大化,而损失函数需要最小化,所以在原来的式子中填上负号,就可以将它作为一个损失函数。在上式右边添加一个负号,就推导出了应用很广的交叉熵(Cross Entropy)损失函数,表达式为:

L(y^,y)=?(ylog y^+(1?y)log (1?y^))L(y^,y)=?(ylog y^+(1?y)log (1?y^))

交叉熵损失函数有如下性质: 
* 当y(i)=1y(i)=1时,L(y^(i),y(i))=?log y^(i)L(y^(i),y(i))=?log y^(i) 
* 当y(i)=0y(i)=0时,L(y^(i),y(i))=?log (1?y^(i))L(y^(i),y(i))=?log (1?y^(i))

对m个训练样本整体的成本函数,可以使用数理统计中的极大似然估计法(Maximum Likelihood Estimation)推导出来的。

假设所有训练样本独立同分布,则联合概率为所有样本概率的乘积:

P=∏i=1mp(y(i)|x(i))P=∏i=1mp(y(i)|x(i))

对上式进行极大似然估计,还是两边取对数得:

log P=∑i=1mlog p(y(i)|x(i))=?∑i=1mL(y^(i),y(i))log P=∑i=1mlog p(y(i)|x(i))=?∑i=1mL(y^(i),y(i))

对上式再取平均值,得成本函数为:

J(w,b)=1m∑i=1mL(y^(i),y(i))J(w,b)=1m∑i=1mL(y^(i),y(i))

梯度下降

想找到使成本函数的值最小的参数w和b的值,一般采用梯度下降法。

标量场中某一点上的梯度指向标量场增长最快的方向,梯度的长度是这个最大的变化率。 

在空间坐标中以w,b为轴画出损失函数J(w,b)的三维图像,可知这个函数为一个凸函数。为了找到合适的参数,先将w和b赋一个初始值,正如图中的小红点。

在逻辑回归中,几乎任何初始化方法都有效,通常将参数初始化为零。随机初始化也起作用,但通常不会在逻辑回归中这样做,因为这个成本函数是凸的,无论初始化的值是多少,总会到达同一个点或大致相同的点。梯度下降就是从起始点开始,试图在最陡峭的下降方向下坡,以便尽可能快地下坡到达最低点,这个下坡的方向便是此点的梯度值。 
 
在二维图像中来看,顺着导数的方向,下降速度最快,用数学公式表达即是:

w:=w?α?J(w,b)?ww:=w?α?J(w,b)?w

b:=b?α?J(w,b)?bb:=b?α?J(w,b)?b

其中的“:=”意思为赋值,αα为学习率,通常为一个小于1的数,用来控制梯度下降过程中每一次移动的规格,相当于迈的步子大小。αα的不宜太小也不宜过大:太小会使迭代次数增加,容易陷入局部最优解;太大容易错过最优解。

Python实现

使用Python编写一个逻辑回归分类器来识别猫,以此来了解如何使用神经网络的思维方式来进行这项任务,识别过程如图: 

实现过程

其中用到的Python包有: 
numpy是使用Python进行科学计算的基础包。 
matplotlib是Python中著名的绘图库。 
h5py在Python提供读取HDF5二进制数据格式文件的接口,本次的训练及测试图片集是以HDF5储存的。 
PIL(Python Image Library)为Python提供图像处理功能。 
scipy基于NumPy来做高等数学、信号处理、优化、统计和许多其它科学任务的拓展库。 
几个Python包的安装及基本使用方法详见官网。

1.导入要用到的所有包

#导入用到的包
import numpy as np
import matplotlib.pyplot as plt
import h5py
import scipy
from PIL import Image
from scipy import ndimage

2.导入数据

#导入数据
def load_dataset():
    train_dataset = h5py.File("train_cat.h5","r") #读取训练数据,共209张图片
    test_dataset = h5py.File("test_cat.h5", "r") #读取测试数据,共50张图片

    train_set_x_orig = np.array(train_dataset["train_set_x"][:]) #原始训练集(209*64*64*3)
    train_set_y_orig = np.array(train_dataset["train_set_y"][:]) #原始训练集的标签集(y=0非猫,y=1是猫)(209*1)

    test_set_x_orig = np.array(test_dataset["test_set_x"][:]) #原始测试集(50*64*64*3
    test_set_y_orig = np.array(test_dataset["test_set_y"][:]) #原始测试集的标签集(y=0非猫,y=1是猫)(50*1)

    train_set_y_orig = train_set_y_orig.reshape((1,train_set_y_orig.shape[0])) #原始训练集的标签集设为(1*209)
    test_set_y_orig = test_set_y_orig.reshape((1,test_set_y_orig.shape[0])) #原始测试集的标签集设为(1*50)

    classes = np.array(test_dataset["list_classes"][:])
    return train_set_x_orig, train_set_y_orig, test_set_x_orig, test_set_y_orig, classes

需要说明的是,本次的训练及测试图片集是以HDF5格式储存的,train_cat.h5、test_cat.h5文件打开后结构如下:

另外,也可以调用以下方法来查看训练集或测试集中的图片:

#显示图片
def image_show(index,dataset):
    index = index
    if dataset == "train":
        plt.imshow(train_set_x_orig[index])
        print ("y = " + str(train_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(train_set_y[:, index])].decode("utf-8") +  "‘ 图片。")
    elif dataset == "test":
        plt.imshow(test_set_x_orig[index])
        print ("y = " + str(test_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(test_set_y[:, index])].decode("utf-8") +  "‘ 图片。")

3.sigmoid函数

#sigmoid函数
def sigmoid(z):
    s = 1/(1+np.exp(-z))
    return s

4.初始化参数w,b

#初始化参数w,b
def initialize_with_zeros(dim):
    w = np.zeros((dim,1)) #w为一个dim*1矩阵
    b = 0
    return w, b

5.计算Y_hat,成本函数J以及dw,db

#计算Y_hat,成本函数J以及dw,db
def propagate(w, b, X, Y):
    m = X.shape[1] #样本个数
    Y_hat = sigmoid(np.dot(w.T,X)+b)
    cost = -(np.sum(np.dot(Y,np.log(Y_hat).T)+np.dot((1-Y),np.log(1-Y_hat).T)))/m #成本函数

    dw = (np.dot(X,(Y_hat-Y).T))/m
    db = (np.sum(Y_hat-Y))/m

    cost = np.squeeze(cost) #压缩维度
    grads = {"dw": dw,
             "db": db} #梯度

    return grads, cost

6.梯度下降找出最优解

#梯度下降找出最优解
def optimize(w, b, X, Y, num_iterations, learning_rate, print_cost = False):#num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ
    costs = [] #记录成本值

    for i in range(num_iterations): #循环进行梯度下降
        grads, cost = propagate(w,b,X,Y)
        dw = grads["dw"]
        db = grads["db"]

        w = w - learning_rate*dw
        b = b - learning_rate*db

        if i % 100 == 0: #每100次记录一次成本值
            costs.append(cost)

        if print_cost and i % 100 == 0: #打印成本值
            print ("循环%i次后的成本值: %f" %(i, cost))

    params = {"w": w,
              "b": b} #最终参数值

    grads = {"dw": dw,
             "db": db}#最终梯度值

    return params, grads, costs

7.得出预测结果

#预测出结果
def predict(w, b, X):
    m = X.shape[1] #样本个数
    Y_prediction = np.zeros((1,m)) #初始化预测输出
    w = w.reshape(X.shape[0], 1) #转置参数向量w

    Y_hat = sigmoid(np.dot(w.T,X)+b) #最终得到的参数代入方程

    for i in range(Y_hat.shape[1]):
        if Y_hat[:,i]>0.5:
            Y_prediction[:,i] = 1
        else:
            Y_prediction[:,i] = 0

    return Y_prediction

8.建立整个预测模型

#建立整个预测模型
def model(X_train, Y_train, X_test, Y_test, num_iterations = 2000, learning_rate = 0.5, print_cost = False): #num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ
    w, b = initialize_with_zeros(X_train.shape[0]) #初始化参数w,b

    parameters, grads, costs = optimize(w, b, X_train, Y_train, num_iterations, learning_rate, print_cost) #梯度下降找到最优参数

    w = parameters["w"]
    b = parameters["b"]

    Y_prediction_train = predict(w, b, X_train) #训练集的预测结果
    Y_prediction_test = predict(w, b, X_test) #测试集的预测结果

    train_accuracy = 100 - np.mean(np.abs(Y_prediction_train - Y_train)) * 100 #训练集识别准确度
    test_accuracy = 100 - np.mean(np.abs(Y_prediction_test - Y_test)) * 100 #测试集识别准确度

    print("训练集识别准确度: {} %".format(train_accuracy))
    print("测试集识别准确度: {} %".format(test_accuracy))

    d = {"costs": costs,
         "Y_prediction_test": Y_prediction_test,
         "Y_prediction_train" : Y_prediction_train,
         "w" : w,
         "b" : b,
         "learning_rate" : learning_rate,
         "num_iterations": num_iterations}

    return d

9.初始化样本,输入模型,得出结果

#初始化数据
train_set_x_orig, train_set_y, test_set_x_orig, test_set_y, classes = load_dataset()

m_train = train_set_x_orig.shape[0] #训练集中样本个数
m_test = test_set_x_orig.shape[0] #测试集总样本个数
num_px = test_set_x_orig.shape[1] #图片的像素大小

train_set_x_flatten = train_set_x_orig.reshape(train_set_x_orig.shape[0],-1).T #原始训练集的设为(12288*209)
test_set_x_flatten = test_set_x_orig.reshape(test_set_x_orig.shape[0],-1).T #原始测试集设为(12288*50)

train_set_x = train_set_x_flatten/255. #将训练集矩阵标准化
test_set_x = test_set_x_flatten/255. #将测试集矩阵标准化

d = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 2000, learning_rate = 0.005, print_cost = True)

结果分析

运行程序最终得到的结果为: 
 
训练集识别准确率接近100%,测试集的准确率有70%。由于训练使用的小数据集,而且逻辑回归是线性分类器,所以这个结果对于这个简单的模型实际上还是不错。

使用mathplotlib画出学习曲线:

# 画出学习曲线
costs = np.squeeze(d[‘costs‘])
plt.plot(costs)
plt.ylabel(‘cost‘)
plt.xlabel(‘iterations (per hundreds)‘)
plt.title("Learning rate =" + str(d["learning_rate"]))
plt.show()

学习率不同时的学习曲线:

learning_rates = [0.01, 0.001, 0.0001]
models = {}
for i in learning_rates:
    print ("学习率: " + str(i))
    models[str(i)] = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 1500, learning_rate = i, print_cost = False)
    print (‘\n‘ + "-------------------------------------------------------" + ‘\n‘)

for i in learning_rates:
    plt.plot(np.squeeze(models[str(i)]["costs"]), label= str(models[str(i)]["learning_rate"]))

plt.ylabel(‘cost‘)
plt.xlabel(‘iterations‘)

legend = plt.legend(loc=‘upper center‘, shadow=True)
frame = legend.get_frame()
frame.set_facecolor(‘0.90‘)
plt.show()

 
说明不同的学习率会带来不同的成本,从而产生不同的预测结果。

参考资料

    1. 吴恩达-神经网络与深度学习-网易云课堂
    2. Andrew Ng-Neural Networks and Deep Learning-Coursera
    3. deeplearning.ai
    4. 课程代码与资料-GitHub

原文地址:https://www.cnblogs.com/yzloo/p/10392211.html

时间: 2024-11-07 18:39:09

深度学习:逻辑回归的相关文章

深度学习——logistic回归

一.常用标记 样本:(x, y)  x为输入,y为输出 输入x:x是一个nx维的特征向量 输出y:取值为0或1 样本数量:m 样本空间:{(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))} 矩阵X=[x(1),x(2),...,x(m)] 矩阵Y=[y(1),y(2),...,y(m)] sigmoid函数:g(z) = 1/(1 + e-z)   z的范围为正负无穷,g(z)结果范围为(0,1) 二.logistic回归 一种学习算法,用于解决输出y为0或1的监督

专家观点碰撞:深度学习能否取代其他机器学习算法

专家观点碰撞:深度学习能否取代其他机器学习算法 摘要:深度学习在最近两年非常火爆,但深度学习能否取代其他机器学习算法?纽约大学研究生Ran Bi根据Quora上的一个讨论总结了不同的观点,CSDN编辑将其翻译如下,并加上一些国内人工智能专家的观点,供大家参考. [编者按]深度学习在最近两年非常火爆,但深度学习能否取代其他机器学习算法?纽约大学研究生Ran Bi根据Quora上的一个讨论总结了不同的观点,CSDN编辑将其翻译如下,并加上一些国内人工智能专家的观点,供大家参考. 深度学习迅速地成长起

逻辑回归损失函数3D图

在学习逻辑回归的过程中,通过3D图像可以直接观察损失函数的收敛速度,对自行确定学习速率提供参考 损失函数公式: Octave程序如下: tx = linspace(100,-30,1000); %θ和X看做一个共同参数ty = round(unifrnd(0,1,1,1000));% y的值仅仅为0或1,随机生成1000个m=length(tx);[xx, yy] = meshgrid (tx, ty);tz = -1 *( yy* log( sigmoid(xx) ) + (1 - yy )

机器学习回顾篇(4):逻辑回归

1 引言 逻辑不逻辑,回归非回归. 回想当年初次学习逻辑回归算法时,看到”逻辑回归“这个名字,第一感觉是这是一个与线性回归类似的回归类别的算法,只不过这个算法突出”逻辑“,或者与某个以”逻辑“命名的知识点有关.可后来却发现,这是一个坑死人不偿命的名字——逻辑回归算法不是回归算法,是分类算法,也与逻辑无关,要说有关也仅是因为它的英文名字是Loginstics,音译为逻辑而已(所以也有资料称之为逻辑斯蒂回归). 2 逻辑回归原理 2.1 从线性回归到逻辑回归 在上一篇博文中,我们详细说过回归算法与分

深度学习之逻辑回归的实现

1 什么是逻辑回归 1.1逻辑回归与线性回归的区别: 线性回归预测的是一个连续的值,不论是单变量还是多变量(比如多层感知器),他都返回的是一个连续的值,放在图中就是条连续的曲线,他常用来表示的数学方法是Y=aX+b: 与之相对的,逻辑回归给出的值并不是连续的,而是 类似于“是” 和 “否” 的回答,这就类似于二元分类的问题. 1.2逻辑回归实现(sigmoid): 在逻辑回归算法中,我们常使用的激活函数是Sigmoid函数,他能够将数据映射到 0 到 1 之间,并且通过映射判断,如果映射到的值在

ufldl学习笔记与编程作业:Logistic Regression(逻辑回归)

ufldl出了新教程,感觉比之前的好,从基础讲起,系统清晰,又有编程实践. 在deep learning高质量群里面听一些前辈说,不必深究其他机器学习的算法,可以直接来学dl. 于是最近就开始搞这个了,教程加上matlab编程,就是完美啊. 新教程的地址是:http://ufldl.stanford.edu/tutorial/ 本节学习链接:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/ 有了线性回归的基础再来学

线性回归,逻辑回归的学习(包含最小二乘法及极大似然函数等)

博文参考了以下两位博主的文章:http://blog.csdn.net/lu597203933/article/details/45032607,http://blog.csdn.net/viewcode/article/details/8794401 回归问题的前提: 1) 收集的数据 2) 假设的模型,即一个函数,这个函数里含有未知的参数,通过学习,可以估计出参数.然后利用这个模型去预测/分类新的数据. 1. 线性回归 假设 特征 和 结果 都满足线性.即不大于一次方.这个是针对 收集的数据

逻辑回归学习笔记

本讲大纲: 1.局部加权线性回归(locally weighted linear regression) 给定一个数据集,根据x预测y. 最左边的函数为,并不能很好的拟合数据: 中间的加了一个额外的特性,函数为,稍微更好地拟合了数据: 似乎我们增加越多的特性,拟合程度越好:但是增加太多的特性是很危险的,最右边的图是一个五阶的多项式,虽然很好的拟合了给定的数据集,但是这个并不是一个很好的预测函数. 欠拟合(underfitting):很明显有一些没有被模型捕获的结构,比如说最左边的图. 过拟合(o

SparkMLlib学习分类算法之逻辑回归算法

SparkMLlib学习分类算法之逻辑回归算法 (一),逻辑回归算法的概念(参考网址:http://blog.csdn.net/sinat_33761963/article/details/51693836) 逻辑回归与线性回归类似,但它不属于回归分析家族(主要为二分类),而属于分类家族,差异主要在于变量不同,因此其解法与生成曲线也不尽相同.逻辑回归是无监督学习的一个重要算法,对某些数据与事物的归属(分到哪个类别)及可能性(分到某一类别的概率)进行评估. (二),SparkMLlib逻辑回归应用