机器学习-斯坦福:学习笔记1-机器学习的动机与应用

机器学习的动机与应用

工具:需正版:Matlab,免费:Octave

定义(Arthur Samuel 1959):

在不直接针对问题进行编程的情况下,赋予计算机学习能力的研究领域。

例:Arthur的下棋程序,计算走每一步获胜的概率,最终打败程序作者本人。(感觉使用决策树思想)

定义2(Tom Mitchell 1998):

一个合理的学习问题应该这样定义:对一个计算机程序来说,给它一个任务T和一个性能测量方法P,如果在经验E的影响下,P对T的测量结果得到了改进,那么就说改程序从E中学习了。

如上例:E:程序不断和自己下棋的经历,T:下棋,P:和人类选手对弈的胜率

课程的四大部分:

1、 有监督学习

(1)      回归问题

例:收集某地房屋价格统计

房屋大小和价格对应情况:

画出一条拟合曲线,就可以通过房屋大小估计价格。

-          有监督学习即给出一个数据集(正确的房屋价格及对应大小)

-          此例为回归问题。回归意味着需要预测的变量是连续的

(2)       分类问题

分类问题中需要处理的变量是离散的

例:判断肿瘤是恶性还是两性

-          收集肿瘤大小和恶性/良性数据,大小为横轴,是否是恶性为纵轴(只有0,1)画图

-          肿瘤可能由多个因素导致,引入年龄,大小为横轴,年龄为纵轴,恶性以叉表示,良性以圆圈表示画图,分析患肿瘤的区域

-          还可引入更多属性,画在多维空间中

-          无限维空间如何处理?将无限维映射到内存的算法?

2、 学习理论

学习理论即解释学习型算法有效的原因(学习算法的理论基础)

寻找什么样的算法能很好地近似不同的函数,训练集的规模是否合适

 

3、 无监督学习

例:如上述肿瘤例子,图中的点不知道正确答案,而是由你从中找去一定的结构,即聚类

应用于生物基因工程,图像处理,计算机视觉等领域

例:鸡尾酒会问题

在嘈杂的鸡尾酒会中,将你感兴趣的声音提取出来

运用两个不同位置的麦克分开来自不同位置的声音

还能应用于文本处理等领域

使用ICA算法,Matlab一行代码即可解决

4、 强化学习

通过决策产生的结论或对或错,故产生一系列的决策。

例:对一个模型飞机编写一个起飞程序,飞机在程序做了一连串错误决策是才会坠毁,只要做出连续的整体还不错的决策,即可保持飞机正常飞行

强化学习的基本概念:回报函数(正反馈及负反馈),程序做出正确决策时给出正反馈,反之亦然。

程序不断做出决策,在不断尝试获得尽量多的正反馈时,逐渐学习并做出正确决策

关键在于要定义什么是正确决策,什么是错误决策,再设计算法获取尽量多的正反馈

时间: 2024-10-06 11:51:11

机器学习-斯坦福:学习笔记1-机器学习的动机与应用的相关文章

斯坦福机器学习公开课学习笔记(1)—机器学习的动机与应用

(转载请注明出处:http://blog.csdn.net/buptgshengod) 1.背景 斯坦福机器学习公开课差不多是网上能找到的最好的机器学习入门课程了.现在一共有20节课放到网络上,博主是在网易公开课学的,那里的视频有中文字幕然后课件也很全. (地址:http://v.163.com/special/opencourse/machinelearning.html) 主讲师Andrew Ng(已经被百度诏安了)是华裔科学家,看他的课特别有亲切感.感觉他们的课跟国内老师的课区别还是挺大的

《机器学习》学习笔记(一)

今天看了两集Stanford 的Machine Learning,先说说感受,在看的过程中,脑海里冒出来一个念头:在中国的大学里,教授们都是好像在做研究,而学生们都是好像在上课,到头来不知道学到了什么,我在屏幕的这边都能感受到他们和我们的不一样. 其实对于机器学习,我是真心不懂,也不知道为什么忽然就想学习一下了,然后看了第一集就觉得实在是太牛X了,他们做的那个爬越障碍物的狗和快速避障的小车,都不是我们能搞出来的,说来也奇怪,我们不是也有他们一样的课程体系吗?照理说在大学里能做出来的东西,我们也应

机器学习实战学习笔记(一)

1.k-近邻算法 算法原理: 存在一个样本数据集(训练样本集),并且我们知道样本集中的每个数据与其所属分类的对应关系.输入未知类别的数据后将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似(最近邻)的k组数据.然后将k组数据中出现次数最多的分类,来作为新数据的分类. 算法步骤: 计算已知类别数据集中的每一个点与当前点之前的距离.(相似度度量) 按照距离递增次序排序 选取与当前点距离最小的k个点 确定k个点所在类别的出现频率 返回频率最高的类别作为当前点的分类 py

概率图模型(PGM)学习笔记(一)动机与概述

本文根据Daphne Koller的课程整理. PDM(ProbabilisticGraphiccal Models) 称为概率图模型.下面分别说明3个词对应的意义. 概率 -给出了不确定性的明确量度. -给出了根据不确定性进行推断的有力工具. -利用数据结构,建立了进行学习的方法,解决十分大规模的问题. 图 这里主要用到2种概率图,用于表示依赖关系.如图1所示. 图1 1.Bayesiannetworks 贝叶斯网络是一个有向无环图(Directed Acyclic Graph,DAG). 由

[学习笔记1]机器学习的动机与应用

本系列博文记录斯坦福大学公开课-机器学习课程的学习笔记. Machine Learning definition Arthur Samuel(1959): Field of study that gives computers the ability to learn without being explicitly programmed. Tom Mitchell(1998): A computer program is said to learn from experience E with

机器学习技法--学习笔记04--Soft SVM

背景 之前所讨论的SVM都是非常严格的hard版本,必须要求每个点都被正确的区分开.但是,实际情况时很少出现这种情况的,因为噪声数据时无法避免的.所以,需要在hard SVM上添加容错机制,使得可以容忍少量噪声数据. ? "软"化问题 软化SVM的思路有点类似正规化,在目标函数添加错误累加项,然后加一个系数,控制对错误的容忍度,并且在约束中添加错误容忍度的约束,形式如下: ? 现在问题就变成了(d+1+N)个变量和2N个约束.ξ用来描述错误的容忍度.C是常量,用来控制容忍度.C越大,由

Coursera台大机器学习基础课程学习笔记1 -- 机器学习定义及PLA算法

这学期学了机器学习这门课,想趁期末看看台大的这门课再把课程梳理一遍. 笔记可以参考这位博主,写得还不错:http://www.cnblogs.com/HappyAngel/p/3456762.html 其中证明PLA算法确实能够越来越接近最完美的感知机以及PLA算法最后一定能停下来那部分非常的精彩. 最后对那些线性不可分的数据,提出了一个Pocket PLA算法,实质就是PLA算法,只不过稍有不同,但也能满足一定的要求.

【吴恩达机器学习】学习笔记——2.1单变量线性回归算法

1 回顾1.1 监督学习定义:给定正确答案的机器学习算法分类:(1)回归算法:预测连续值的输出,如房价的预测(2)分类算法:离散值的输出,如判断患病是否为某种癌症1.2 非监督学习定义:不给定数据的信息的情况下,分析数据之间的关系.聚类算法:将数据集中属性相似的数据点划分为一类. 2 单变量线性回归算法2.1 符号定义m = 训练样本的数量x = 输入变量y = 输出变量2.2 工作方式训练集通过学习算法生成线性回归函数hypothesis  hθ(x) = θ0 + θ1x 原文地址:http

机器学习基石--学习笔记01--linear hard SVM

背景 支持向量机(SVM)背后的数学知识比较复杂,之前尝试过在网上搜索一些资料自学,但是效果不佳.所以,在我的数据挖掘工具箱中,一直不会使用SVM这个利器.最近,台大林轩田老师在Coursera上的机器学习技法课程上有很详细的讲授SVM的原理,所以机会难得,一定要好好把握这次机会,将SVM背后的原理梳理清楚并记录下来.这篇文章总结第一讲linear hard SVM的相关内容. ? ? 最好的分割线 之前有讲过PLA,即在线性可分的数据中,找到一条线,能够区分开正负样本,如下所示: 上面三条线,

Python_sklearn机器学习库学习笔记(七)the perceptron(感知器)

一.感知器 感知器是Frank Rosenblatt在1957年就职于Cornell航空实验室时发明的,其灵感来自于对人脑的仿真,大脑是处理信息的神经元(neurons)细胞和链接神经元细胞进行信息传递的突触(synapses)构成. 一个神经元可以看做将一个或者多个输入处理成一个输出的计算单元.一个感知器函数类似于一个神经元:它接受一个或多个输入,处理 他们然后返回一个输出.神经元可以实时,错误驱动的学习,神经元可以通过一个训练样本不断的更新参数,而非一次使用整套的数据.实时学习可能有效的处理