猪猪的机器学习笔记(十)人工神经网络

人工神经网络

作者:樱花猪

摘要:

本文为七月算法(julyedu.com)12月机器学习第十次次课在线笔记。人工神经网络在支持图像处理、文本、语言以及序列多种类型的数据处理时都用用到。本次课程更加侧重于实践,把抽象的人工神经网络用程序展现出来,课上讲述了编程使用的工具和方法,对于日后实验有非常重要的帮助。

引言:

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。本次课程讨论了神经网络的基本框架、非常热门的BP算法以及实际编程的要点。

预备知识:

概率论;梯度下降法

人工神经网络

前向全连接网路

人工神经网络求法

 

一、人工神经网络

人工神经网络基础形态是前向全连接网络,同时拥有多种变形,这些变形构成了深度学习的主要内容。

卷积网路(CNN):属于部分连接网络,是深度学习结构核心之一

递归网络(RNN):是一种更为复杂的网络结构,能够很好的应对序列数据。

自编码器(Auto Encoder),一种数据特征学习,类似于PCA的作用

二、前向全连接网路(Full connected Forward Network)

1、基础神经单元

神经元是构成神经网络的基本单元,一个神经元的组成包括:

输入:n 维向量x;

线性加权:

激活函数:,求非线性,容易求导;

输出标量:

2、常用激活函数:

a、sigmoid函数。输出值域不对称,两头过于平坦。

b、tanh函数。两头过于平坦

C、Rectified linear unit

收敛速度比sigmoid和tanh快,计算简单高效。是目前最广泛使用的激活函数,特别应用在CNN。

3、丛神经元到网络

输入错,输入向量;

中间层(隐含层)

输出层,输出向量,用于预测、分类以及回归。

三、人工神经网络求法

1、损失函数(Loss Function)

配合模型训练,有Loss/Error Fuction:

Softmax / Cross-entropy loss:

SVM / hinge loss:

Least squares (L2 loss):

2、输入数据的预处理:

如果输入数据各个维度数据是相关的,将导致各个权重相互影响,不利于优化算法寻找局部最优解。

如果各个维度的规模不一致,将导致对应的Error Surface容易出现狭窄区域,不利于优化算法寻找局部最优。

通常对向量数据必须要用PCA和白化处理,而对于一般的数据只需要做到均值化和归一化。

3、训练算法(BP算法)

神经网络的训练目标是找到W和B使得损失函数最小。优化算法需要计算dW和dB。BP算法就是计算W和B导数的算法。

BP算法的核心是链式规则。

算法步骤:

a. forward计算一次

b. 逐层计算backwoard得到各个层的dW和dB。

c. 应用随机梯度下降法SGD,更新W,B

4、数值校验

实现BP算法的过程中比较容易出错,因此有必要进行检查。

5、算法优化

多层网络的Error Surface非常复杂,存在很多局部最优,我们要寻找尽可能大的范围内的局部最优。

动量法不随更新W合适更新“更新W”的速度。

当位于距离较长的“坡”的时候动量法可以加快滑动速度;当位于平缓的区域时,动量法也能够保持一定的速度。

来自为知笔记(Wiz)

时间: 2024-10-13 12:05:34

猪猪的机器学习笔记(十)人工神经网络的相关文章

猪猪的机器学习笔记(十八)条件随机场

条件随机场 作者:樱花猪 摘要: 本文为七月算法(julyedu.com)12月机器学习第十八次课在线笔记.条件随机场是一种判别式概率模型,是随机场的一种,常用于标注或分析序列资料,如自然语言文字或是生物序列. 引言: “条件随机场”被用于中文分词和词性标注等词法分析工作,一般序列分类模型常常采用隐马尔科夫模型(HMM),像基于类的中文分词.但隐马尔可夫模型中存在两个假设:输出独立性假设和马尔可夫性假设.其中,输出独立性假设要求序列数据严格相互独立才能保证推导的正确性,而事实上大多数序列数据不能

猪猪的机器学习笔记(十二)支持向量机

支持向量机 作者:樱花猪   摘要: 本文为七月算法(julyedu.com)12月机器学习第十二次次课在线笔记.SVM是一种常见的分类器,在很长一段时间起到了统治地位.而目前来讲SVM依然是一种非常好用的分类器,在处理少量数据的时候有非常出色的表现. 引言: SVM是一个非常常见的分类器,在真正了解他的原理之前我们多多少少都有接触过他.本位将会详细的介绍SVM的原理.目标以及计算过程和算法步骤.我们针对线性可分数据和线性不可分数据介绍了线性支持向量机和非线性支持向量机,并在最后简单阐述非线性支

猪猪的机器学习笔记(十四)EM算法

EM算法 作者:樱花猪   摘要: 本文为七月算法(julyedu.com)12月机器学习第十次次课在线笔记.EM算法全称为Expectation Maximization Algorithm,既最大期望算法.它是一种迭代的算法,用于含有隐变量的概率参数模型的最大似然估计和极大后验概率估计.EM算法经常用于机器学习和机器视觉的聚类领域,是一个非常重要的算法.而EM算法本身从使用上来讲并不算难,但是如果需要真正的理解则需要许多知识的相互串联. 引言:      EM算法是机器学习十大经典算法之一.

猪猪的机器学习笔记(十三)贝叶斯网络

贝叶斯网络 作者:樱花猪 摘要 本文为七月算法(julyedu.com)12月机器学习第十三次次课在线笔记.贝叶斯网络又称信度网络,是Bayes方法的扩展,是目前不确定知识表达和推理领域最有效的理论模型之一.贝叶斯网络适用于表达和分析不确定性和概率性的事件,应用于有条件地依赖多种控制因素的决策,可以从不完全.不精确或不确定的知识或信息中做出推理.本节课从朴素贝叶斯模型开始,详细描述了贝叶斯网络的意义,构建方案以及其他衍生算法. 引言 贝叶斯网络是机器学习中非常经典的算法之一,它能够根据已知的条件

猪猪的机器学习笔记(八)聚类

聚类 作者:樱花猪   摘要: 本文为七月算法(julyedu.com)12月机器学习第八次次课在线笔记.聚类算法是一种常见的无监督的学习方法,概念简单在图像.机器学习中都有应用.目前有许多聚类方法,本次课程将一一探讨各种各样的聚类算法. 引言: 聚类算法在很早就接触过,简单的说就是通过对于某些相关性的测量来将样本分成不同的类别,聚类算法除了在机器学习中有所应用在图像分割时也是一种非常好的思路.本次课程从我们熟悉的K-means聚类开始讲起,介绍了层次聚类.密度聚类.谱聚类等方法.文章的最后还介

机器学习笔记06:神经网络的表示(Neural Networks-Representation)

神经网络(Neural Networks)其实是一个很古老的想法,在提出来之后,沉寂了很长一段时间.而现在,神经网络是许多机器学习问题的首选算法. 文章内的所有图片均属于Stanford机器学习课程,转载请注明出处 一.神经网络的表示(The Representation for Neural Networks) 1.运用神经网络的动机(Motivations) 非线性的假设函数(Non-linear Hypothesis) 之前已经学习了两个机器学习中常用的方法:线性回归和逻辑回归.那为什么还

漫谈机器学习经典算法—人工神经网络

更新:文章迁移到了这里.http://lanbing510.info/2014/11/07/Neural-Network.html,有对应的PPT链接. 注:整理自向世明老师的PPT 看不到图片的同学能够直接打开链接:https://app.yinxiang.com/shard/s31/sh/61392246-7de4-40da-b2fb-ccfd4f087242/259205da4220fae3 内容提要 1 发展历史 2 前馈网络(单层感知器,多层感知器.径向基函数网络RBF) 3 反馈网络

机器学习笔记——人工神经网络

人工神经网络(Artificial Neural Networks,ANN)提供了一种普遍而实用的方法从样例中学习值为实数.离散值或向量的函数. 人工神经网络由一系列简单的单元相互密集连接构成,其中每一个单元有一定数量的实值输入(可能是其他单元的输出),并产生单一的实数值输出(可能成为其他单元的输入). 适合神经网络学习的问题: 实例是很多"属性-值"对表示的 目标函数的输出可能是离散值.实数值或者由若干实数或离散属性组成的向量 训练数据可能包含错误 可容忍长时间的训练 可能需要快速求

开源的人工神经网络计算库 FANN 学习笔记 1

开源的人工神经网络计算库 FANN 学习笔记 1 这年头机器学习非常的火,神经网络算是机器学习算法中的比较重要的一种.这段时间我也花了些功夫,学了点皮毛,顺便做点学习笔记. 介绍人工神经网络的基本理论的教科书很多.我正在看的是蒋宗礼教授写的<人工神经网络导论>,之所以选这本书,主要是这本比较薄,太厚的书实在是啃不动.这本书写的也比较浅显,用来入门正合适. 看书的同时也在网上找了找人工神经网络的库代码.感觉 FANN 这个库还不错,就顺道学了学这个库的使用方法. FANN 是个开源的 C 语言实