机器学习单词记录--02章单变量相性回归

Liner  regression 线性回归

The overall  process of x  x的整个过程

区分监督学习和无监督学习--看是否有“正确答案”和已知的预测值

Cost  function代价函数

M--denote the number of training examples表示训练样本的数量

Lowercase x 小写字母x

Output variables 输出变量

Training  set训练集

Hypothesis 假设

Corresponding  相应的

Represent表示

Subscript下标  plus加

Shorthand缩写

Linear regression 线性回归(univariate单变量)

Figure out弄清楚

Straight line直线

Parameters of the model模型参数

Cost  function 代价函数(the squared error function平方误差函数)

Mathematical definition数学定义

get back  to 回去

Intuition直觉

Recap复习

Form 形成

Optimization objective 优化目标

Visualize可视化

Work  with 与...合作

Theta  Θ

To minimize J of theta one 减少J(Θ_1)的值

Corresponds to相当于

Simplified definition  简化的定义

Pass  through the point(0,0)  过点(0,0)

Concept概念

Hypothesis function假设函数

Θ_1,which controls the slope of the straight line它控制着直线的斜率

Temporary 暂时

Compute计算

    

One over 2m of my usual  cost function 代价函数的1/2m倍

Square 平方

Vertical distance 垂直距离

The predicted value h of x i  预测值h(x^i)

Example样本

Math error计算错误

Flat line 水平线

Negative value 负数

Minus减

By computing the range of values 通过一系列数值的计算

For each value of theta one  corresponds to a different hypothesis

每一个Θ_1都对应一个不同的假设函数

Trace out 追踪

Minimize 最小化

Assume 假设

Be familiar with x 对x熟悉

Contour plot 高等线

Contour figures高等图像

illustrator 图像

make sense to 对xx有意义

Problem 问题、课题、难题

Generate生成

Bowl shaped function 碗状函数

3-D surface plot    3-D曲面图

axes 、axis 轴

Vary  改变

Rotate this plot around  旋转这个图形

Ovals、Ellipse 椭圆

The middle of the these concentric  ellipse同心椭圆的中心

Intersect   相交

Manually read off the numbers 手工读出数

High dimensional  figures  with more  parameters  具有更多参数、更高维的图形

Gradient descent for minimizing the cost function J  代价函数J最小化的梯度下降法

Arbitrary  随意的

Setup 体系、概述

J(θ0,θ1)是代价函数

For  solving this  more  general problem 为了去解决更一般的问题

For the sake of brevity   简短起见

The sake of 为了

Succinctness  简洁

Notation  符号

Pretend 假装

Wind up 直到、结束

The height of surface 曲面的高度

Pick挑

initialize 初始化

Hill 山

Landscape 景色

Grassy park 青草公园

Spin 360 degrees  around and just look all around us旋转360度,看看我们的周围

If I were to take  a little baby step in some direction ,and I want to go downhill as quickly as possible,what direction do I take that little baby step in  if I want to physically  walk  down this hill  as  rapidly  as possible?

如果我要在某个方向上走一步,并且我想尽快下山的话,我应该朝什么方向迈步?

Converge、convergence汇合

Property  属性、特点

Local optimum 局部最佳

Intuition 直觉

Subtract 减去

Equation 公式

Detail  细节

Unpack  解压、解释

Assignment  分配、赋值

Assignment operator   赋值运算符

Take the value in b  取b的值

Assert 断言

Claim声明

Alpha  α---- learning rate 学习速率(永远是个正数)

Learning rate 学习率

Aggressive 侵略性、迅速

Term 术语

Derivative 导数

Derive this  derivative term 推导这个导数项

Calculus微积分

Subtle 微妙

Update更新

Expression 表达式

Simultaneously  同时

Simultaneous updates同步更新

Behave 表现

Partial derivatives 偏导数

Derivatives 导数

α--- it controls how big a step we take when updating my parameter theta J

(他控制我们以多大的幅度更新这个参数θ_J)

Convey  解释

Tangent 切线

Positive slope 正斜率

The slope of that line  这条线的斜率

Multiple 多

Minimum 最低点

Global minimum全局最低点

Overshoot 越过

Iteration 迭代

Fail to converge or even diverge 无法收敛甚至发散

At local  optimum your derivative would be equal to zero

(在局部最优点的导数等于0)

Magnitude 大小

导数越小,θ更新幅度越小

Square cost function 平方代价函数

Put together gradient descent with our cost function 将梯度下降和代价函数结合

Linear regression model线性回归模型

h线性假设、J(θ0,θ1)平方代价函数

Apply应用

This  piece of code 这段代码

Multivariate calculus 多元微积分

Respective 对应的

Be susceptible to 易受影响

梯度下降算法的代价函数往往是一个碗状bow-shaped function的图形

Convex function 凸函数--------doesn’t have any local optima , except for the one global optimum

没有局部最优解,只有一个全局最优

Specific  具体

down left 左下

This global minimum corresponds to this hypothesis which gives  me  a  good fit to the data

这个全局最小对应的假设曲线让我一个很好地拟合了数据

Batch gradient descent:

其他的梯度算法:

do not look at the entire training set,

but look at small subsets of the traing sets at a  time

没有查看整个训练集,而是每次只关注了小子集

linear regression with gradient descent

啥是使用了梯度下降的线性回归?

advanced linear algebra 高等线性代数

iterative algorithm 迭代算法

generalization  通用

原文地址:https://www.cnblogs.com/Amyheartxy/p/10894087.html

时间: 2024-11-10 07:37:50

机器学习单词记录--02章单变量相性回归的相关文章

机器学习单词记录--03章线性代数回顾

Matrices.matrix 矩阵   vectors 向量 array  排列 Element 元素 A matrix  is a  rectangular array of numbers,written between square brackets 矩阵是由数字组成的矩形阵列,并写在方括号内 Square bracket 方括号 a bunch of  一堆 Row 行  column 列 Matrix is just another way for saying ,2D or two

机器学习 Machine Learning(by Andrew Ng)----第二章 单变量线性回归(Linear Regression with One Variable)

第二章 单变量线性回归(Linear Regression with One Variable) <模型表示(Model Representation)>                                                             <代价函数(Cost Function)>                                                          <梯度下降(Gradient Descent)

机器学习第2课:单变量线性回归(Linear Regression with One Variable)

2.1  模型表示 之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示: 我们将要用来描述这个回归问题的标记如下: m                代表训练集中实例的数量   x                 代表特征/输入变量 y                 代表目标变量/输出变量 (x,y)            代表训练集中的实例 (x(i),y(i)  )    代表第 i 个观察实例 h                代表学习算法的解决方案或

机器学习【第二篇】单变量线性回归

吴恩达机器学习笔记整理--单变量线性回归 通过模型分析,拟合什么类型的曲线. 一.基本概念 1.训练集 由训练样例(training example)组成的集合就是训练集(training set), 如下图所示,其中(x,y)是一个训练样本,训练集中每一行表示一个训练样本;(x^i,y^i)表示第i个训练样本. 2.假设函数h 使用某种学习算法对训练集的数据进行训练, 我们可以得到假设函数(Hypothesis Function), 如下图所示. 在房价的例子中,假设函数就是一个房价关于房子面

【stanford 机器学习】学习笔记(1)--单变量线性回归

课程来自斯坦福大学吴恩达教授 machine learning: https://www.coursera.org/learn/machine-learning/home/welcome 1) Model representation(模型表示) 回到房屋价格预测问题, 首先它是一个有监督学习的问题(对于每个样本的输入,都有正确的输出或者答案),同时它也是一个回归问题(预测一个实值输出).训练集表示如下: 其中: m = 训练样本的数目 x’s = “输入”变量,也称之为特征 y’s = “输出

第02周-单变量线性回归

一个有监督的房价训练模型如下所示: 单变量线性回归问题: 模型预测值与训练实际值之间的差距,就是建模误差. 一般常用的代价函数是平方误差函数,之所以提出误差的平方和,是因为误差平方代价函数对于大多数问题特别是回归问题,都是一个合理的选择. 常使用梯度下降作为求函数最小值的算法,开始时我们随机选择一个参数的组合,计算代价函数,然后我们寻找下一个能让代价函数下降最多的参数组合,持续如此,就能找到一个局部最小值. 批量梯度下降的过程: 原文地址:https://www.cnblogs.com/jiqi

Andrew Ng机器学习第一章——单变量线性回归

监督学习算法工作流程 h代表假设函数,h是一个引导x得到y的函数 如何表示h函数是监督学习的关键问题 线性回归:h函数是一个线性函数 代价函数 在线性回归问题中,常常需要解决最小化问题.代价函数常用平方误差函数来表示 代价函数就是用于找到最优解的目的函数,这也是代价函数的作用 ps:尽可能简化问题去理解一些抽象概念,如单一的参数变化等等 可以利用代价函数去寻找你拟合效果最好的假设函数的参数 当参数很多时,利用图表来寻找最小代价函数就变得比较复杂,故引出梯度下降法. 梯度下降法最小化任意代价函数J

斯坦福大学Andrew Ng - 机器学习笔记(1) -- 单变量&amp;多变量线性回归

大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结.笔记难免有遗漏和误解,欢迎讨论. 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢!

机器学习 (一) 单变量线性回归 Linear Regression with One Variable

文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang和 JerryLead 的个人笔记,为我做个人学习笔记提供了很好的参考和榜样. § 1.  单变量线性回归 Linear Regression with One Variable 1. 代价函数Cost Function 在单变量线性回归中,已知有一个训练集有一些关于x.y的数据(如×所示),当我们的预测值