Andrew Ng Machine Learning - Week 1: Introduction

此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。

课程网址:https://www.coursera.org/learn/machine-learning/home/welcome

Week 1: Introduction

  1. Environment Setup Instructions

    这一章介绍课程一般使用的工具。octave或者matlab即可,这两者本质上没有什么区别,都有着丰富的数学库计算库。

  2. Introduction
    • 机器学习定义:简单来说,让计算机执行一些行为,但是without explicit programmed。
    • 监督学习(supervised learning):通过已知的正确信息,得到未知的信息。一般用于解决的问题有两类:
      • 回归问题(regression)
      • 例如:房价预测。已知一百平房子售价,两百平房子售价,三百平房子售价。那么,一百五十平房子的售价呢?
      • 很容易想到,拟合。那么接下来,是直线拟合?二次曲线拟合?
      • 这就是回归问题要解决的,通过已知离散信息,预测未知的连续信息。
      • 分类问题(classification)
      • 例如:肿瘤分类。已知肿瘤size与肿瘤良性(label: 0)还是恶性(label: 1)分类的关系如下:

      • 更进一步,完全可以用一维坐标图来表示:

      • 现在需要对于根据size的对某个肿瘤判断它是良性还是恶性,就是分类问题。
      • 再进一步,现在我仅仅把size作为feature之一,如果我们加入考虑肿瘤积水(二维坐标图)?肿瘤硬度(三维坐标图)?原则上可以考虑无限种feature,如何处理?这里卖了个关子,可以使用支持向量机(SVM)。
    • 无监督学习(unsupervised learning)/ 聚类算法(clustering)
      • 对于有监督学习而言,我们已知的信息很多:每个data的label是什么,label可以分为多少类,等等。但是无监督学习中,这些都是未知的
      • 最常见的应用:浏览新闻时经常会有的相关新闻,或者搜索时的相关搜索结果,又或是weibo中的推荐分组,等等。
      • 可以理解为计算机自己理解后将信息分为了若干类
      • 经典案例:cocktail party problem,原文链接:http://soma.mcmaster.ca/papers/Paper_7.pdf。简而言之,就是在聚会上摆俩麦克风分别记录声音,需要通过这些信息将不同声源的声音分隔开来。
      • 如果考虑声音本身的特征与背景知识,解法会比较复杂,需要大量的先验知识。但站在机器学习的角度来思考,就是一类无监督学习的应用场景。matlab实现仅需几行代码而已。
  3. Bonus: Course Wiki Lecture Notes
    • 单一变量线性回归:即通过线性方程来拟合已知data的feature,与label之间的关系。表达为 hθ=θ0+θ1x。
    • 不同的线性方程之间,需要挑出来一个拟合更适合的,这就需要一个判断标准。常用的基于Mean squared error (MSE):J(θ0,θ1)=12m∑i=1m(hθ(x(i))?y(i))2
    • 如果让计算机来实现这个过程,怎么办呢?梯度下降法(Gradient Descent)是一种常见手段。
    • 该方法的核心是:
    • θi:=θi?α??θiJ(θi,θj),其中α是下降步长,人为确定。可以看出来,梯度下降法对于J(θi,θj)是否线性,参数的数量,都没有限制。
    • 最后利用梯度下降法代入导数(不论是链式法则,还是单个变量代入)得到最优的拟合函数参数:

========== 占个坑,课程的下半部分明天补上 ==========

4. Model and Cost Function

5. Parameter Learning

6. Linear Algebra Review

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-11-10 21:13:29

Andrew Ng Machine Learning - Week 1: Introduction的相关文章

Andrew Ng Machine Learning - Week 3:Logistic Regression & Regularization

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 1: Introduction 笔记:http://blog.csdn.net/ironyoung/article/details/46845233 We

Andrew Ng Machine Learning - Week 4 & 5- Neural Networks

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 1: Introduction 笔记:http://blog.csdn.net/ironyoung/article/details/46845233 We

Andrew Ng Machine Learning 专题【Linear Regression】

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记. 力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 3: Logistic Regression & Regularization 笔记:http://blog.csdn.net/ironyoung/ar

Andrew Ng Machine Learning - Week 2

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 2 Multivariate Linear Regression Week 1 讨论仅一个特征,即仅有一个未知量x影响了目标y的取值.如果现在有很多特征?

andrew ng machine learning week8 非监督学习

聚类——无监督学习的一种算法 K-means算法 最为广泛使用的聚类算法 选择两个聚类中心 簇分配:根据每个样本更接近哪个聚类中心进行样本的分配 簇中心移动:计算出所有的红点类的均值点,移动原始聚类中心到这个点,蓝点类同理 进行不断地迭代直到收敛 输入:K个簇类和训练集样本数据 注意:不需要X0项,为n维向量 算法的描述: 如果最终有个簇中心没有任何点分配给他那么直接移除就可以 K-means常常适用于右侧这种看不出来结构的混乱的数据的聚类的,所以并不是都是左图如此理想的环境 最优化的目标函数

andrew ng machine learning week9 异常检测和推荐系统

异常检测 概率分布的角度:通过判断某个样本的概率分部值和阈值的关系判断是不是异常样本 异常检测的应用: 1. 在线购物网站如何识别异常用户(欺诈行为或者被盗号) 2. 制造业 3. 检测计算机的运行情况 高斯分布 高斯分布开发异常检测算法 步骤 1. 选择一些异常的特征 2. 计算均值和方差,对于每一个特征来进行计算 在这个三维立体图中,越高的地方是正常的地方,异常区则是接近平面0的这些点 如何开发一个关于异常检测的应用 实数评价法的重要性: 不建议把交叉集和测试集混在一起使用 算法的评估过程

Ng Machine learning

Machine learning Preface Definition T: Task E: Experience P: Performance Sequence: T -> E -> P Supervised learning Definition Give the right answer to each example of the data set(called training data). Type Regression: get the continuous values Cla

[Machine Learning] RBM Brief Introduction

这里简单概括一下RBM模型构建.求解以及评估的基本思路,希望能给想了解RBM模型的同学一点帮助. Restricted Boltzmann Machine 是一个基于能量表示而定义的模型,其结构就是两层的神经网络,一个可见层V和一个隐层H,同一层之间的单元不存在连接,层之间全连接. 根据RBM的网络结构,可以定义出系统中的能量函数,我们称为E.在物理中,一个系统的能量越小,那么其稳定的概率越大.因此有了能量函数之后,就能定义该系统稳定的概率了,这里我们称为P,这个P是V和H的联合概率. 在RBM

2013 UBC Machine Learning NO.7 Introduction to Gaussian Processes NO.8 Gaussian Processes

原文地址:https://www.cnblogs.com/ecoflex/p/9122942.html