开啃《机器学习》(周志华)- 第5章 神经网络

基本概念:

  • Neural Networks:神经网络,由具有适应性的简单单元组成的广泛并行互联的网络,能够模拟生物神经系统对真实物体之间做出的交互反应
  • Neuron:神经元,神经网络的组成单元,收到的输入超过阀值时,会被激活,并传递信息到下一级神经元。
  • M-P神经元模型:每个神经元接收到来自n个其他神经元传来的信号,每个输入信号带有一个connection weight(连接权重),加权得到一个总输入值与threshold(阀值)进行比较,通过activation function(激活函数,如Sigmoid函数)产生神经元的输出

其中,y为当前神经元输出,f()为激活函数,n、x、w分别为前一级神经元个数、输出值(也是当前神经元的输入值)和权重值。

神经网络的学习过程,就是根据训练数据来调整神经元之间的connection weight和threshold。

  • perceptron(感知机):最简单的神经网络,包含一层输入层和一层输出层;其中仅输出层包含功能性神经元(具有激活函数的神经元)
  • hidden layer(隐含层):神经网络输入层与输出层之间的功能性神经元
  • feedforward neural networks(前馈神经网络):不存在环或回路的神经网络结构

BP(error BackPropagation)算法:

  • 标准BP:算法流程和步骤(待补充)
  • accumulated BP(累积BP):

1)标准BP对训练集的单次样本学习会做一次参数调整,而累积BP则对整个训练集学习完后才进行参数调整

2)标准BP由于对不同样例学习后进行更新可能出现抵销的效果,所以需要更多次数的迭代

3)当训练集非常大时,标准BP会有更快更高效的收敛效果

  • trial-by-error:解决如何设置隐含层神经元的个数问题的常用方法
  • 解决BP算法过拟合的手段:early stopping 和 regularization

Local minimum & Global minimum(全局最小与局部极小):

  • 全局最小一定是局部极小,反之则不成立
  • 如何解决陷入局部极小的问题:

1)以多组不同参数值初始化神经网络,训练后,取误差最小的接作为最终参数

2)simulated annealing(模拟退火):每一步迭代以一定概率接受次优解

3)随机梯度下降:计算梯度时加入随机因素,使局部极小时梯度非零,调整梯度下降方向

4)genetic algorithms(遗传算法)

其他神经网络:

  • RBF(Radial Basis Function)
  • ART(Adaptive Resonance Threory,competitive learning-竞争型无监督网络)
  • SOM(Self-Organizing Map,competitive learning-竞争型无监督网络)
  • Cascade-Correlation Networks(级联相关网络,结构自适应,能学习和调整网络结构本身)
  • Elman(recurrent neural networks,递归神经网络,能处理与时间有关的动态变化问题)
  • Boltzmann(energy-based model,基于能量的模型,训练目标为最小化能量值使网络达到最理想状态;神经元都是布尔型)
时间: 2024-10-22 06:53:02

开啃《机器学习》(周志华)- 第5章 神经网络的相关文章

【读书笔记】机器学习-周志华 & 机器学习实战(Python)

这两本放在一起看吧.当然了,我觉得Spark上面的实践其实是非常棒的.有另一个系列文章讨论了Spark. /Users/baidu/Documents/Data/Interview/机器学习-数据挖掘/<机器学习_周志华.pdf> 一共442页.能不能这个周末先囫囵吞枣看完呢.哈哈哈. P1 一般用模型指全局性结果(例如决策树),用模式指局部性结果(例如一条规则). P3 如果预测的是离散值,那就是分类-classification:如果预测的是连续值,那就叫回归-regression. P3

机器学习-周志华

机器学习的一些小tips周志华Tom M.Mitchell,是卡内基梅隆大学的教授,讲授“机器学习”等多门课程:美国人工智能协会(AAAL)的主席:美国<Machine Learning>杂志.国际机器学习年度会议(ICML)的创始人:多种技术杂志的撰稿人,曾发表过许多文章,出版过多本专著,是机器学习领域的著名学者. 本书展示了机器学习中核心的算法和理论,并阐明了算法的运行过程.本书综合了许多的研究成果,例如统计学.人工智能.哲学.信息论.生物学.认知科学.计算复杂性和控制论等,并以此来理解问

机器学习周志华——学习器性能度量

衡量模型泛化能力的评价标准,就是性能度量(performance measure). (1)错误率与精度 (2)查准率.查全率与F1 基于样例真实类别,可将学习器预测类别的组合划分为真正例(true positive).假正例(false positive).真反例(true negative).假反例(false negative),TP.FP.TN.FN分别表示其对应的样例数,则有TP+FP+TN+FN=样例总数. 查准率P与查全率R分别定义为: P= TP/(TP+FP)=>正例结果中真正

周志华:关于机器学习的一点思考

https://mp.weixin.qq.com/s/sEZM_o5D6AhyMgvocbsFhw 演讲:周志华 整理:肖琴.闻菲 [新智元导读]机器学习如今大获成功的原因有哪些?如何才能取得进一步的突破?南京大学周志华教授在AI WORLD 2018大会上分享他关于机器学习的一点思考:我们需要设计新的.神经网络以外的深度模型:让智能体在弱监督条件下也能够学习,以及考虑开放动态任务环境下的学习. 播放 震撼!AI WORLD 2018世界人工智能峰会开场视频 南京大学计算机系主任.人工智能学院院

机器学习是什么--周志华

机器学习是什么--周志华 机器学习现在是一大热门,研究的人特多,越来越多的新人涌进来. 不少人其实并没有真正想过,这是不是自己喜欢搞的东西,只不过看见别人都在搞,觉着跟大伙儿走总不会吃亏吧. 问题是,真有个“大伙儿”吗?就不会是“两伙儿”.“三伙儿”?如果有“几伙儿”,那到底该跟着“哪伙儿”走呢? 很多人可能没有意识到,所谓的machine learning community,现在至少包含了两个有着完全不同的文化.完全不同的价值观的群体,称为machine learning "communit

《机器学习》(周志华)第4章 决策树 笔记 理论及实现——“西瓜树”

参考书籍:<机器学习>(周志华) 说       明:本篇内容为读书笔记,主要参考教材为<机器学习>(周志华).详细内容请参阅书籍——第4章 决策树.部分内容参考网络资源,在此感谢所有原创者的工作. ================================================================= 第一部分 理论基础 1. 纯度(purity) 对于一个分支结点,如果该结点所包含的样本都属于同一类,那么它的纯度为1,而我们总是希望纯度越高越好,也就是

(二)《机器学习》(周志华)第4章 决策树 笔记 理论及实现——“西瓜树”——CART决策树

CART决策树 (一)<机器学习>(周志华)第4章 决策树 笔记 理论及实现--"西瓜树" 参照上一篇ID3算法实现的决策树(点击上面链接直达),进一步实现CART决策树. 其实只需要改动很小的一部分就可以了,把原先计算信息熵和信息增益的部分换做计算基尼指数,选择最优属性的时候,选择最小的基尼指数即可. #导入模块 import pandas as pd import numpy as np from collections import Counter #数据获取与处理

偶尔转帖:AI会议的总结(by南大周志华)

偶尔转帖:AI会议的总结(by南大周志华) 说明: 纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全. 同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令 人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的 tier-1: IJCAI (1+): International Joint Conference on Artificial Intelligence AAAI (1): Na

(转)周志华:“深”为什么重要,以及还有什么深的网络

周志华老师大家应该都很熟悉吧,今天偶然看到他在今年IJCAI大会上的发言稿,感觉读完受益匪浅,故摘录下来与大家分享,也方便日后复习查看. 本文由雷锋网整理完成,原文地址:https://ai.yanxishe.com/page/reportDetail/14317 这里只是用于学习用途,非商业用途,如有侵权,请联系博主删除. 深度学习就等于深度神经网络吗? 深度学习今天已经有各种各样的应用,到处都是它,不管图像也好,视频也好,声音自然语言处理等等.那么我们问一个问题,什么是深度学习? 我想大多数

看周志华教授的一番话有感

[看周志华教授的一番话有感] " 有点幽默,但很朴实,深度学习现在差不多就是民工活,调来调去,刷来刷去.文章发得飞快,貌似热闹,但有多少是能积淀下来的实质真进展,又有多少是换个数据就不靠谱了的蒙事撞大运?既缺乏清澈干净的内在美感,又不致力于去伪存真.正本清源,只图热闹好看,迟早把 arXiv 变成废纸堆. " 周志华教授的这段话在一定程度上说的就是我, 总是把别人的代码拿下来跑, 好像跑通了就会很有成就感 其实这种想法很危险, 在当前深度学习的浪潮里,非常需要能静下心研究出真正的东西而