机器学习001 deeplearning.ai 深度学习课程 Neural Networks and Deep Learning 第一周总结

Deep Learning Specialization

吴恩达老师最近在coursera上联合deeplearning.ai 推出了有关深度学习的一系列课程,相对于之前的machine learning课程,这次的课程更加实用,作业语言也有matlab改为了python从而更加贴合目前的趋势。在此将对这个系列课程做一个学习笔记。

而这次的Deep Learning Specialization分为五门课程,分别为:Neural Networks and Deep Learning,Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization,Structuring Machine Learning Projects,Convolutional Neural Networks,Sequence Models。

这篇随笔首先从第一门课Neural Networks and Deep Learning的第一周开始

深度学习简介

学习目标:

1. 了解推动深度学习的主要趋势

2. 能够解释深度学习是如何应用到监督学习中的

3. 了解深度学习模型的主要类别以及什么时候该应用什么模型

4. 能够简单了解什么情况下机器学习会工作的比较顺利

主要内容

人工智能将会像电力的出现一样给人类社会带来又一次巨大转变。就想一百年前一样,人工智能也在改变着许多行业。

什么是神经网络

假设我们用房屋的面积大小来预测一个房屋的价格,那么我们可以用线性回归(linear regression)来进行拟合,同时我们知道房屋的价格不会是个负值,因此我们可以用下图中的蓝线来进行一个拟合。

这个蓝线很类似于目前神经网络中常用的激活函数ReLU(rectified linear unit)。对于这种只有一个输入和一个输出的问题,我们可以用一个最简单的神经网络来表示。

这种最简单的神经网络就好像乐高积木一样,更加复杂的网络都可以用这个最简单的“乐高”块拼接而成。

当然在日常生活中我们可能面临更加复杂的问题。决定一个房屋价格的因素除了房屋大小以外,可能还有卧室的数量,邮政编码(也就是房子的所在街道)以及周边社区的富裕情况。房屋大小和卧室数量可以决定这个房屋适合几口之家,而房屋所在街道可能决定了交通是否便利,房子所在的街道和周边社区的富裕程度还可能决定这个房子是不是学区房。之后再由的房屋适合几口之家,交通是否便利,是否是学区房来预测这个房屋的价格。当我们用神经网络解决此类问题时,我们只需给出输入X也就是房屋大小,卧室数,邮编和周边的富裕情况就可以通过一个训练好的神经网络得到一个预测的房屋价格。

从这个神经网络示意图我们可以看出,输入层每个特征都和隐层的每个神经元相连。当然,连接的权重可能会有所不同。

使用神经网络进行监督学习

监督学习中,我们一定会有成对的输入x和输出y。而监督学习目前有着很广泛的应用。在不同应用中,我们应当选择适合的输入和输出

在不同的应用领域,我们可能采取不同的深度学习模型。比如在不动产(real estate)和在线广告(online advertising)中,我们更倾向于使用标准的神经网络(standard
NN)。而在标记图片或者进行图像识别时,我们经常使用卷积神经网络(CNN, convolutional neural network)。在进行语音识别、翻译等序列识别的时候,常用的模型为循环神经网络(RNN, recurrent neural network)。当面对自动驾驶等复杂问题时,我们可能会使用复杂混合网络(complex hybrid neural network architecture.)。

在监督学习中,我们可能面对两种数据:结构化数据和非结构化数据。对于结构化数据来说,对于每个特征都有明确界定的含义。而非结构化数据比如声音、图像和文本等,特征可能是单个音节或者像素,没有明确的意义。

什么促使深度学习腾飞

  1. 深度学习在很多领域的应用中取得了巨大的成功,比如在线广告推荐,语音识别和图像识别等。
  2. 目前计算机的计算能力相对于过去有了很大提高
  3. 我们现在有了很多数据(大数据)

从这个图中我们可以看出,更多的数据,规模更大的网络都可以提高神经网络的表现。同时算法的发展也是不容忽略的。比如从过去常用的sigmoid激活函数到目前常用的ReLU激活函数。同时新的算法一般都使得神经网络的训练速度更快。更快的训练速度可以让我们有机会训练更大的网络来应付越来越多的数据,同时也可以让我们尝试更多的想法,可以更快地测试不同的参数。同时硬件的发展也让我们可以更快的训练网络模型来验证想法。

时间: 2024-10-11 16:57:22

机器学习001 deeplearning.ai 深度学习课程 Neural Networks and Deep Learning 第一周总结的相关文章

Neural Networks and Deep Learning学习笔记ch1 - 神经网络

近期開始看一些深度学习的资料.想学习一下深度学习的基础知识.找到了一个比較好的tutorial,Neural Networks and Deep Learning,认真看完了之后觉得收获还是非常多的.从最主要的感知机開始讲起.到后来使用logistic函数作为激活函数的sigmoid neuron,和非常多其它如今深度学习中常使用的trick. 把深度学习的一个发展过程讲得非常清楚,并且还有非常多源代码和实验帮助理解.看完了整个tutorial后打算再又一次梳理一遍,来写点总结.以后再看其它资料

CVPR 2015 之深度学习篇 Part 2 - deep learning在计算机视觉各个子领域的应用

CVPR 2015 之深度学习篇 Part 2 - deep learning在计算机视觉各个子领域的应用 Image Classification (图像分类)deep learning 的腾飞归功于其在 image classification 上的巨大成功.2012年的 AlexNet 的分类效果遥遥领先于第二名.后来各种 deep architectures 被采用,其中有名的是 VGG-Net 和 GoogLeNet,他们比 AlexNet 使用了更多的层.其次,GoogLeNet 还

Neural Networks and Deep Learning

Neural Networks and Deep Learning This is the first course of the deep learning specialization at Coursera which is moderated by moderated by DeepLearning.ai. The course is taught by Andrew Ng. Introduction to deep learning Be able to explain the maj

[C3] Andrew Ng - Neural Networks and Deep Learning

About this Course If you want to break into cutting-edge AI, this course will help you do so. Deep learning engineers are highly sought after, and mastering deep learning will give you numerous new career opportunities. Deep learning is also a new "s

《Neural networks and deep learning》概览

最近阅读了<Neural networks and deep learning>这本书(online book,还没出版),算是读得比较仔细,前面几章涉及的内容比较简单,我着重看了第三章<Improving the way neural networks learn>,涉及深度神经网络优化和训练的各种技术,对第三章做了详细的笔记(同时参考了其他资料,以后读到其他相关的论文资料也会补充或更改),欢迎有阅读这本书的同学一起交流.以下属个人理解,如有错误请指正. What this bo

第四节,Neural Networks and Deep Learning 一书小节(上)

最近花了半个多月把Mchiael Nielsen所写的Neural Networks and Deep Learning这本书看了一遍,受益匪浅. 该书英文原版地址地址:http://neuralnetworksanddeeplearning.com/ 回顾一下这本书主要讲的内容 1.使用神经网络识别手写数字 作者从感知器模型引申到S型神经元.然后再到神经网络的结构.并用一个三层神经网络结构来进行手写数字识别, 作者详细介绍了神经网络学习所使用到梯度下降法,由于当训练输入数量过大时,学习过程将变

吴恩达《深度学习》-课后测验-第一门课 (Neural Networks and Deep Learning)-Week 4 - Key concepts on Deep Neural Networks(第四周 测验 – 深层神经网络)

Week 4 Quiz - Key concepts on Deep Neural Networks(第四周 测验 – 深层神经网络) \1. What is the "cache" used for in our implementation of forward propagation and backward propagation?(在实现前向传播和反向传播中使用的"cache"是什么?) [ ]It is used to cache the interme

吴恩达 Deep learning 第一周 深度学习概论

知识点 1. Relu(Rectified Liner Uints 整流线性单元)激活函数:max(0,z) 神经网络中常用ReLU激活函数,与机器学习课程里面提到的sigmoid激活函数相比有以下优点: 1.simoid激活函数具有饱和性,通常不适用simoid作为激活函数 2.ReLU的收敛速度更快 2.常见监督学习应用场景 3.结构化数据与非结构化数据 结构化数据,结构化的数据是指可以使用关系型数据库表示和存储,表现为二维形式的数据.一般特点是:数据以行为单位,一行数据表示一个实体的信息,

为什么深度学习有效?(why deep learning works)

总述:这篇文章是一次听讲座,吴大鹏教授做的why deep learning works,佛罗里达大学教授,很有名.自己对该讲座做个理解. 一.深度学习的背景相关介绍 1.machine learning:一般的ml只针对线性分类,即只是一个linear methods. 2.neural networks:第二代神经网络,是对ml的一个发展,更好地非线性分类.通过BP算法,调参数,以误差和真实值为导向,修改一系列参数,让误差趋近于0,逼近真实值.但是一般的神经网络只能到3-5层,层数多了就不行