斯坦福大学 机器学习 相关知识点介绍

1 机 器 学 习 介 绍

1 机器学习介绍

“机器学习研究的是如何赋予计算机在没有被明确编程的情况下仍能够学习的能力。

(Field of study that fives computers the ability to learn without being explicitly programmed.)”

“对于某个任务 T 和表现的衡量 P,当计算机程序在该任务 T 的表现上,经过 P 的衡量,随着经验 E 而增长,我们便称计算机程序能够通过经验 E 来学习该任务。

(computer program is said to learn from experience E with respect to some task T and some performance

measure P, if its performance on T, as measured by P, improves with experience E.)”

在跳棋游戏的例子中,任务 T 是玩跳棋游戏,P 是游戏的输赢,E 则是一局又一局的游戏。

一些机器学习的应用举例:

1. 数据库挖掘

2. 一些无法通过手动编程来编写的应用:如自然语言处理,计算机视觉

3. 一些自助式的程序:如推荐系统

4. 理解人类是如何学习的

1.2 监 督 学 习 ( SUPERVISED LEARNING)

监督式的学习,预先给了算法“正确结果”——即所有我们观察到的变量。

回归问题(Regression),因为我们能预测的结果是连续地值

分类问题(Classification),我们希望算法能够学会如何将数据分类到不同的类里。

1.3 非 监 督 学 习 ( UNSUPERVISED LEARNING)

在非监督学中,我们的现有数据中并没有结果,我们有的只是特征,因而非监督学习要解决的问题是发现这些数据是否可以分为不同的组

非监督学习的一个例子是聚类问题(Clustering),例如对一个大型的数据中心的网络传输数据情况进行分析,发现那些多数时候是在协作的计算机

2 单 变 量 线 性 回 归 ( LINEAR REGRESSION WITH ONE VARIABLE)

2.1 模 型 表 达 ( MODEL REPRESENTATION)

m 代表训练集中实例的数量

? x 代表特征/输入变量

? y 代表目标变量/输出变量

? (x,y) 代表训练集中的实例

? (x(i),y(i) ) 代表第 i 个观察实例

? h 代表学习算法的解决方案或函数也称为假设(hypothesis)

2.2 代 价 函 数 ( COST FUNCTION)

2.3 梯 度 下 降 ( GRADIENT DESCENT)

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数 J(θ0,θ1)的最小值。

梯度下降背后的思想是:开始时我们随机选择一个参数的组合(θ0,θ1,…,θn),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么做直到到到一个局部最小值(local minimum),因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值(global minimum),选择不同的初始参数组合,可能会找到不同的局部最小值。

2.4 对 线 性 回 归 运 用 梯 度 下 降 法

2.5 特 征 缩 放 ( FEATURE SCALING)

解决的方法是尝试将所有特征的尺度都尽量缩放到-1 到 1 之间。最简单的方法是令

2.6 正规方程( NORMAL EQUATION)

查准率(Precision)和查全率(Recall)

我们将算法预测的结果分成四种情况:

1. 正确肯定(True Positive,TP):预测为真,实际为真

2. 正确否定(True Negative,TN):预测为假,实际为真

3. 错误肯定(False Positive,FP):预测为真,实际为假

4. 错误否定(False Negative,FN):预测为假,实际为假

则:

查准率=TP/(TP+FP)

例,在所有我们预测有恶性肿瘤的病人中,实际上有恶性肿瘤的病人的百分比,越高越好。

查全率=TP/(TP+FN)

例,在所有实际上有恶性肿瘤的病人中,成功预测有恶性肿瘤的病人的百分比,越高越好。这样,对于我们刚才那个总是预测病人肿瘤为良性的算法,其查全率是 0

时间: 2024-10-24 03:21:13

斯坦福大学 机器学习 相关知识点介绍的相关文章

斯坦福大学机器学习公开课学习—1.机器学习的动机与应用

斯坦福大学机器学习公开课学习—1.机器学习的动机与应用 介绍了课程主要内容包含以下4点 1.supervised learning(监督学习) 2.learning theory(学习理论) 3.unsupervised learning(非监督学习) 4.reinforcement learning(强化学习) 其中介绍了很多例子,有一些例子还是非常有趣的: 而且通过课程内容我发现机器学习的应用范围真的比之前想象的大多了,而且现在也的确在很多领域取得了很大的成就. 监督学习介绍了回归问题,分类

Coursera公开课笔记: 斯坦福大学机器学习第七课“正则化”

Coursera公开课笔记: 斯坦福大学机器学习第七课"正则化" NLPJob 斯坦福大学机器学习第七课"正则化"学习笔记,本次课程主要包括4部分: 1) The Problem of Overfitting(过拟合问题) 2) Cost Function(成本函数) 3) Regularized Linear Regression(线性回归的正则化) 4) Regularized Logistic Regression(逻辑回归的正则化) 以下是每一部分的详细解读

斯坦福大学机器学习(Andrew [email protected])--自学笔记

今天学习Andrew NG老师<机器学习>之6 - 6 - Advanced Optimization,做笔记如下: 用fminunc函数求代价函数最小值,分两步: 1.自定义代价函数 function [jVal,gradient] = costFunction(theta)jVal = (theta(1)-5)^2 + (theta(2)-5)^2;gradient = zeros(2,1);gradient(1) = 2*(theta(1)-5);gradient(2) = 2*(the

斯坦福大学机器学习公开课 ---Octave Tutorial Transcript

斯坦福大学机器学习公开课 ---Octave Tutorial Transcript Prompt (命令窗口提示符)can be changed with the command PS1('>> '). Transcript 1  Basics 1.1 Basic algebra in Octave Elementary +; -; *; / ;            %arithmetic operations. == ; ~=;&&; ||; xor ;  % logic

斯坦福大学机器学习公开课---Programming Exercise 1: Linear Regression

斯坦福大学机器学习公开课---Programming Exercise 1: Linear Regression 1  Linear regression with one variable In thispart of this exercise, you will implement linear regression with one variableto predict profits for a food truck. Suppose you are the CEO of a rest

斯坦福大学机器学习公开课:Programming Exercise 2: Logistic Regression

斯坦福大学机器学习公开课:Programming Exercise 2: Logistic Regression---Matlab实现 1 Logistic Regression In this part of the exercise, I will build a logistic regression model to predict whether a student gets admitted into a university. You want to determine each

斯坦福大学机器学习课程原始讲义(含公开课视频) (转载)

http://blog.csdn.net/v_july_v/article/details/7624837 斯坦福大学机器学习课程原始讲义 本资源为斯坦福大学机器学习课程原始讲义,为Andrew Ng 所讲,共计20个PDF,基本涵盖了机器学习中一些重要的模型.算法.概念,此次一并压缩上传分享给大家,朋友们可以直接点击右边下载:斯坦福大学机器学习课程原始讲义.zip. 斯坦福大学机器学习公开课视频 与之配套的则是斯坦福大学的机器学习公开课的视频: 1. 网易翻译的公开课视频:http://v.1

斯坦福大学机器学习公开课学习—2.监督学习应用&#183;梯度下降

这节课的学习,相信一般上过统计或者运筹相关课程的同学应该都会有所了解.课上涉及的知识虽然很基础,但是也是很重要的. 在搜集了一些房价相关数据的基础上,利用线性回归算法来预测房价. 为了方便算法的训练推导,进行了很多符号的标准规定,从这当中也学到了一些知识,以后自己在进行一些算法的推导时也可学习课上的这些标准符号和推导方式. 下面给出这堂课上的一些干货. 1.机器学习算法的基本框架 2.最小二乘法——线性回归常用的代价函数,即误差平方和最小 3.参数学习算法——梯度下降算法,包含批量梯度下降和随机

斯坦福大学-机器学习的动机与应用

此课在网易公开课上的名字是“机器学习的动机和应用”,而在官网上叫CS229: Machine Learning,就是机器学习 主要工具,matlab和Octave,前者收费,后者具有前者大部分功能,但免费.此课用后者已经足够. 有学生问能否用C或Java来写此课的程序,吴说不是不行,但是强烈不建议,会把大量精力浪费在无意义的代码上. 后面有一些很酷的音频分析的无监督算法,用matlab只需要一行代码,而用C或Java,工作量会无限大. matlab的那一行代码,是无数科学家经过数年以后总结出来的