【深度学习】吴恩达网易公开课练习(class2 week1 task2 task3)

正则化

定义:正则化就是在计算损失函数时,在损失函数后添加权重相关的正则项。

作用:减少过拟合现象

正则化有多种,有L1范式,L2范式等。一种常用的正则化公式

\[J_{regularized} = \small \underbrace{-\frac{1}{m} \sum\limits_{i = 1}^{m} \large{(}\small y^{(i)}\log\left(a^{[L](i)}\right) + (1-y^{(i)})\log\left(1- a^{[L](i)}\right) \large{)} }_\text{cross-entropy cost} + \underbrace{\frac{1}{m} \frac{\lambda}{2} \sum\limits_l\sum\limits_k\sum\limits_j W_{k,j}^{[l]2} }_\text{L2 regularization cost}\]

使用正则化,需要分别在计算损失函数和反向传播计算导数时做相应的修改。

上述正则化对应的反向传播公式需添加一项:

\[\frac{d}{dW} ( \frac{1}{2}\frac{\lambda}{m} W^2) = \frac{\lambda}{m} W\]

dropout

梯度校验

原文地址:https://www.cnblogs.com/dplearning/p/8639678.html

时间: 2025-01-15 12:49:35

【深度学习】吴恩达网易公开课练习(class2 week1 task2 task3)的相关文章

【深度学习】吴恩达网易公开课练习(class2 week1)

权重初始化 参考资料: 知乎 CSDN 权重初始化不能全部为0,不能都是同一个值.原因是,如果所有的初始权重是相同的,那么根据前向和反向传播公式,之后每一个权重的迭代过程也是完全相同的.结果就是,无论迭代多少次,这些权重都是一样的. 不可以初始化为较大的随机值.原因是在输出层的激活函数是sigmoid,当采用较大的值初始化权重后,sigmoid输入会是一个较大的值,结果就是对应的梯度很小,结果难以收敛.并且,由于sigmoid输入大,输出就会是一个接近0或1的值.在计算损失时,log(0) =

深度学习 吴恩达 Andrew Ng

1.神经网络和深度学习 课程地址:https://mooc.study.163.com/course/2001281002#/info 2.改善深层神经网络:超参数调试.正则化以及优化 3.结构化机器学习项目 4.卷积神经网络 卷积神经网络 卷积 以边缘检测为例,说明了不同的滤波器filter可以检测出,不同的形状. 检测出前者的图片中间的垂直结构. 垂直边缘滤波器加测出图片中的垂直结构. 水平边缘加测. 不同的滤波器会学习到不同的检测结构, 反向传播可以学习9个参数,可以检测出更加复杂的结构.

neural networks and deep learning 吴恩达coursera公开课

课程链接:网易云课堂:http://study.163.com/my#/smarts ->free              coursera:https://www.coursera.org/learn/neural-networks-deep-learning?authMode=signup  ->need money 大牛学习笔记:https://zhuanlan.zhihu.com/p/29017066

Coursera 深度学习 吴恩达 deep learning.ai 笔记整理(3-2)——机器学习策略

一.误差分析 定义:有时我们希望算法能够胜任人类能做的任务,但是当算法还没达到人类所预期的性能时,人工检查算法错误会让你知道接下来做什么,这也就是误差分析 检查,发现会把够狗当恒,是否需要做一个项目专门处理狗?收集更多的图,或者 在错误例子中查看多少狗 滤镜花哨的滤镜 干扰分类器 做最有潜力的 弄清楚替身空间 坑你归纳出新的误差类型 简历新的错误分类

Coursera 深度学习 吴恩达 deep learning.ai 笔记整理(4-1)—— 卷积神经网络

1.计算机视觉 神经网络在计算机视觉方面有很广泛的应用, 包括图像分类.物体检测.图像风格转换和融合,但是当图片的尺寸比较大时,参数的数量就会增多,传统的全连接神经网络就会很复杂,一方面无法找到足够的数据训练,另一方面也容易引起过拟合,因此我们引入卷积神经网络 原文地址:https://www.cnblogs.com/dapeng-bupt/p/9059927.html

吴恩达 DeepLearning.ai课程笔记(1-3)神经网络和深度学习 --- 浅层神经网络

以下为在Coursera上吴恩达老师的DeepLearning.ai课程项目中,第一部分<神经网络和深度学习>第二周课程部分关键点的笔记.笔记并不包含全部小视频课程的记录,如需学习笔记中舍弃的内容请至 Coursera 或者 网易云课堂.同时在阅读以下笔记之前,强烈建议先学习吴恩达老师的视频课程. 1. 二分类问题 对于二分类问题,大牛给出了一个小的Notation. 样本:  ,训练样本包含  个: 其中  ,表示样本 包含 个特征:  ,目标值属于0.1分类: 训练数据:  输入神经网络时

2017年度好视频,吴恩达、李飞飞、Hinton、OpenAI、NIPS、CVPR、CS231n全都在

我们经常被问:机器翻译迭代了好几轮,专业翻译的饭碗都端不稳了,字幕组到底还能做什么? 对于这个问题,我们自己感受最深,却又来不及解释,就已经边感受边做地冲出去了很远,摸爬滚打了一整年. 其实,现在看来,机器翻译在通用领域的短句上,已经做得不错了,但是复杂长句.需要结合上下文语境.特定知识的翻译上,效果还远远不能让人满意. 人工智能领域的翻译,就属于后者.它不仅需要数学.编程知识打底,对特定专业表达进行界定,还需要适时结合上下文语境理解和延伸. 这样一来,你也许能够理解,忠于原意又有人情味的翻译很

吴恩达《深度学习》第一门课(1)深度学习引言

1.1欢迎 主要讲了五门课的内容: 第一门课:神经网络基础,构建网络等: 第二门课:神经网络的训练技巧: 第三门课:构建机器学习系统的一些策略,下一步该怎么走(吴恩达老师新书<Machine Learning Yearning>就是针对这个以及上一课): 第四门课:卷积神经网络相关: 第五门课:循环神经网络相关. 1.2什么是神经网络 (1)常说的深度学习指的就是训练神经网络,或者也指特别大规模的神经网络. (2)每一个神经元都代表着从输入到输出的函数映射,如下的房价预测: (3)激活函数Re

李飞飞、吴恩达、Bengio等人的15大顶级深度学习课程

目前,深度学习和深度强化学习已经在实践中得到了广泛的运用.资源型博客sky2learn整理了15个深度学习和深入强化学习相关的在线课程,其中包括它们在自然语言处理(NLP),计算机视觉和控制系统中的应用教程. 这些课程涵盖了神经网络,卷积神经网络,循环网络和其变体,训练深度网络的困难,无监督表示学习,深度信念网络,深玻尔兹曼机器,深度Q学习,价值函数估计和优化以及蒙特卡洛树搜索等多种算法的基础知识. 吴恩达:深度学习专项 这系列课程侧重于讲解深度学习的基础和在不同领域的运用方式,如医疗健康,自动