机器学习总结--andrew ng视频(1)

由于毕设是关于机器学习的,所以有在学习一些关于机器学习的内容。

起步是先看Andrew ng 的视频,这一周的总结如下。

首先,机器学习分为监督学习和非监督学习。

而我的理解是监督学习是有标准的,即你可以对你的结果以他之前的一些数据作为标准进行判断,所谓监督。监督问题也分为分类和回归问题。分类即结果是一些离散值,回归问题是结果是一些连续值。

对于非监督学习即是给出一些数据集,您能找到他们的结构吗,即并没有所谓的标准,分为聚类和非聚类问题。

最开始是接触线性回归。

training set-->learning algorithm

input-->hypothesis-->output

m个训练例子,x(input)即是特征或者变量,y(output)为目标变量,一般来说X可以一个或者多个。

先来讨论一个x的情况:

h(x) = θ+ θ1*x;

cost function J(θ) = 1/2m*∑(h(xi)-yi)2  (i-->1:m)

找到 θ0和θ1使得J(θ)最小。当这两值都不为0时,可以得到一三维曲面。

使J(θ)最小,我们可以使用gradient descent 的方法:

θj := θ- α*?/?θjJ(θ0,θ1)   同步更新每个θ

α为学习率,确定步子迈多大。

然后对于多特征(多x)的相应内容:

然后一些对于线性代数的知识的回顾。矩阵与向量,矩阵的转置,求逆之类的。矩阵的乘法不满足交换律和消去律。

X为一矩阵,m位训练例数,n为特征数,Xj(i)为在第i个训练例中的特征j 的值,X(i)为在第i个训练例中所有的特征的值,为一列值

h(x) = θ+ θ1*x12*x23*x3+....+θn*xn;

所以我们在x的最开始加全是1的一行,来达到h(θ) = θT*X的效果。

在实行gradient descent 的方法时,我们以以下公式同步更新:

θj := θ- α*(1/m)∑(hθ(x(i))-y(i))xj(i)   (i-->1:m)

  • 对于特征范围不一的问题,我们可以用 feature scaling,即特征缩放的方法来解决。

mean normalization:
x1 <--(x1-avg)/range

而且还有区别于gradient descent的方法来求最终θ值

Normal Equation(正规方程):

直接得到θ值。

θ = (XTX)-1XTy(当n大(n>10000)时不适用,时间消耗太大)

特征处理:删除多余或者无用特征

以及Octave的使用

时间: 2024-11-05 04:14:11

机器学习总结--andrew ng视频(1)的相关文章

机器学习之&amp;&amp;Andrew Ng课程复习--- 怎样选择机器学习方法、系统

大家都说dual(对偶)问题(数学渣此前对此只是对其概念的了解)在机器学习应用中很广泛,遂写下(其实查阅纪录)以下关于dual的相关知识,这套理论不仅适用于SVM的优化问题,而是对于所有带约束的优化问题都适用,是优化理论中的一个重要部分.(也许你觉得一个IT人优化问题不重要,其实你仔细想想,现实中的很多问题,都是在有条件约束的情况下的求最优的问题) 简单来说,对于任意一个带约束的优化都可以写成这样的形式: minf0(x) s.t.fi(x)≤0,i=1,-,m hi(x)=0,i=1,-,p

机器学习(Andrew Ng)笔记(二):线性回归模型 &amp; 梯度下降算法

线性回归模型 回忆一下第一节课提出的预测房屋每平方单位价格的例子.在这个例子中,我们可以画一条直线,尽量符合数据点的分布趋势.我们已经知道这是一个回归问题,即预测连续值的输出.实际上,这是一个典型的线性回归模型.之所以这样定义,大概是因为回归方程可以用一个线性函数来表示. 我们可以假设这个线性函数为: 这是一个关于x的一元一次方程.其中两个参数的值我们还不知道,要根据训练集中的数据求解出来.这里要定义几个概念,我们已经有的数据,即房屋面积与单价的对应数据对,被称作训练集.x作为房屋面积,称作输入

斯坦福大学机器学习(Andrew [email&#160;protected])--自学笔记

今天学习Andrew NG老师<机器学习>之6 - 6 - Advanced Optimization,做笔记如下: 用fminunc函数求代价函数最小值,分两步: 1.自定义代价函数 function [jVal,gradient] = costFunction(theta)jVal = (theta(1)-5)^2 + (theta(2)-5)^2;gradient = zeros(2,1);gradient(1) = 2*(theta(1)-5);gradient(2) = 2*(the

机器学习笔记- from Andrew Ng的教学视频

最近算是一段空闲期,不想荒废,记得之前有收藏一个机器学习的链接Andrew Ng的网易公开课,其中的overfiting部分做组会报告时涉及到了,这几天有时间决定把这部课程学完,好歹算是有个粗浅的认识. 本来想去网上查一查机器学习的书籍,发现李航的<统计学习方法>和PRML(Pattern Recognition And Machine Learning)很受人推崇,有空再看吧. 然后在图书馆碰到了天佑,给我推荐了coursera这个网站,上面有Andrew Ng针对网络版的机器学习教程,挺好

斯坦福大学Andrew Ng教授主讲的《机器学习》公开课观后感

课程设置和内容 视频课程分为20集,每集72-85分钟.实体课程大概一周2次,中间还穿插助教上的习题课,大概一个学期的课程. 内容涉及四大部分,分别是:监督学习(2-8集).学习理论(9集-11集).无监督学习(12-15集).强化学习(16-20集).监督学习和无监督学习,基本上是机器学习的二分法:强化学习位于两者之间:而学习理论则从总体上介绍了如何选择.使用机器学习来解决实际问题,以及调试(比如:误差分析.销蚀分析).调优(比如:模型选择.特征选择)的各种方法和要注意的事项(比如,避免过早优

斯坦福大学Andrew Ng - 机器学习笔记(1) -- 单变量&amp;多变量线性回归

大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结.笔记难免有遗漏和误解,欢迎讨论. 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢!

斯坦福大学Andrew Ng - 机器学习笔记(2) -- 逻辑回归 &amp; 正则化

大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结.笔记难免有遗漏和误解,欢迎讨论. 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢!

斯坦福大学Andrew Ng - 机器学习笔记(8) -- 推荐系统 &amp; 大规模机器学习 &amp; 图片文字识别

大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结.笔记难免有遗漏和误解,欢迎讨论. 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢!

斯坦福大学Andrew Ng - 机器学习笔记(6) -- 聚类 &amp; 降维

大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结.笔记难免有遗漏和误解,欢迎讨论. 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢!