单变量微积分(02):Derivatives, Slope, Velocity, and Rate of Change

1. 导数的几何意义

函数f(x)在点P的导数定义为P点在函数曲线上的该点切线的斜率。但是如何来准确的求出曲线在该点的切线呢。

有两点要注意:

  • 切线并不是只与曲线只有一个交点的线
  • 它是曲线上另一点逐渐靠近P点时,形成的割线斜率的极限。

所以导数的几何定义即为:

Limit of slopes of secant lines PQ as Q→P(P fixed). The slope of PQˉˉˉˉˉ:

在我们知道了曲线的导数f′(x)后,我们可以求得点P(x0,y0)处的切线方程为:

y?y0=f′(x)(x?x0)

一些记号

由于y=f(x),所以我们记:

Δy=Δf=f(x)?f(x0)=f(x+Δx)?f(x0)

差分商的公式可以记为:

ΔyΔx=ΔfΔx

当我们取极限Δx→0时,我们得到

ΔyΔx→dydx(Leibniz‘ notation)

ΔfΔx→f′(x0)(Newton‘s notation)

当我们谈及函数f的导数时,下面的记号是等价的:

dffx,f′,and Df

例:用极限的方法求xn的导数

ddxxn=limΔx→0f(x+Δx)?f(x)Δx=limΔx→0(x+Δx)n?xnΔx=limΔx→0xn+Cn1xn?1(Δx)+O(Δx2)?xnΔx=limΔx→0Cn1xn?1(Δx)+O(Δx2)Δx=limΔx→0(Cn1xn?1+O(Δx))=nxn?1

2. 导数的物理解释

当我们把导数定义为变化率时就得到了导数的物理意义,比如速度。

MIT的孩子们有一个从楼顶往下扔南瓜的传统,我们假设高度为400M。

南瓜离地面的高度随着时间变化而变化,这个关系可以用下面的函数表示:

y=400?16t2

从上面的关系中,我们首先可以计算南瓜的平均速度:

vˉ=ΔyΔt=distance travelledtime elapsed

我们可以知道当南瓜着地的时候y=400?16t2=0,此时t=5,那么平均速度vˉ=400m5sec=80m/s

而实际上我们更关心的是它的瞬时速度,比如南瓜落地时的速度,因为如果速度过快可能会砸死小朋友!

t=5时的瞬时速度为y′:

y′=?32t=?160 m/s

y是负的因为南瓜的速度向下增长的(不是因为速度方向向下)。

3. 变化率(rate of change)

物理中很多物理量有变化率定义:

  • 电荷的变化率(dqdt)为电流
  • 距离的变化率(dsdt)为速度
  • 温度的变化率(dTdt)为温度梯度

时间: 2024-12-19 17:17:36

单变量微积分(02):Derivatives, Slope, Velocity, and Rate of Change的相关文章

单变量微积分(03):Limits and Continuity

1. 极限 简单的极限,我们可以通过直接代入法求解,如: limx→3x2+xx+1=3 我们知道我们在利用极限求导数时: limx→x0ΔfΔx=limx→x0f(x0+Δx)?f(x0)Δx 如果直接用代入法的话,会出现分母为0的情况. 2. 连续 连续的定义: We say f(x) is continuous at x0 when limx→x0f(x)=f(x0) 四类不连续点 1. Removable Discontinuity Right-hand limit: limx→x+0f

单变量微积分(一)导数和变化率(更新中)

导数的几何解释: 求y=f(x)在P(x0,y0)处的切线. 定义: F在x0的导数是y=f(x)在P(x0,y0)处的斜率,记为f’(x). 切线其实是一种极限,是Q趋近于P时,割线PQ的极限. 斜率计算: 斜率${\rm{m}} = \mathop {\lim }\limits_{\Delta {\rm{x}} \to 0} \frac{{\Delta f}}{{\Delta x}}$ 原文地址:https://www.cnblogs.com/mycodinglife/p/10546582.

机器学习单词记录--02章单变量相性回归

Liner  regression 线性回归 The overall  process of x  x的整个过程 区分监督学习和无监督学习--看是否有“正确答案”和已知的预测值 Cost  function代价函数 M--denote the number of training examples表示训练样本的数量 Lowercase x 小写字母x Output variables 输出变量 Training  set训练集 Hypothesis 假设 Corresponding  相应的 R

第02周-单变量线性回归

一个有监督的房价训练模型如下所示: 单变量线性回归问题: 模型预测值与训练实际值之间的差距,就是建模误差. 一般常用的代价函数是平方误差函数,之所以提出误差的平方和,是因为误差平方代价函数对于大多数问题特别是回归问题,都是一个合理的选择. 常使用梯度下降作为求函数最小值的算法,开始时我们随机选择一个参数的组合,计算代价函数,然后我们寻找下一个能让代价函数下降最多的参数组合,持续如此,就能找到一个局部最小值. 批量梯度下降的过程: 原文地址:https://www.cnblogs.com/jiqi

Stanford公开课机器学习---2.单变量线性回归(Linear Regression with One Variable)

单变量线性回归(Linear Regression with One Variable) 2.1 模型表达(Model Representation) m 代表训练集中实例的数量 x 代表特征/输入变量 y 代表目标变量/输出变量 (x,y) 代表训练集中的实例 (x(i),y(i) ) 代表第 i 个观察实例 h 代表学习算法的解决方案或函数也称为假设(hypothesis) 单变量线性回归:只含有一个特征/输入变量 x hθ=θ0+θ1x 2.2 代价函数(Cost Function) 目标

机器学习入门之单变量线性回归(上)——梯度下降法

在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回归系数的模型参数的线性组合.只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariate linear regression).——————维基百科 一直以来,这部分内容都是ML的敲门砖,吴恩达教授在他的课程中也以此为第一个例子,同时,本篇也参考了许多吴教授的内容. 在这里,我简单把

MATLAB 单变量函数一阶及N阶求导

1 对一维函数的求导及求特定函数处的变量值 %%最简单的一阶单变量函数进行求导 function usemyfunArray() %主函数必须位于最上方 clc clear syms x %syms x代表着声明符号变量x,只有声明了符号变量才可以进行符号运算,包括求导. %f(x)=sin(x)+x^2; %我们输入的要求导的函数 y = diff(sin(x)+x^2); %代表着对单变量函数f(x)求一阶导数 disp('f(x)=sin(x)+x^2的导数是'); pretty(y);

Ng第二课:单变量线性回归(Linear Regression with One Variable)

二.单变量线性回归(Linear Regression with One Variable) 2.1  模型表示 2.2  代价函数 2.3  代价函数的直观理解 2.4  梯度下降 2.5  梯度下降的直观理解 2.6  梯度下降的线性回归 2.7  接下来的内容 2.1  模型表示 之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示: 我们将要用来描述这个回归问题的标记如下: m                代表训练集中实例的数量 x          

机器学习之单变量线性回归(Linear Regression with One Variable)

1. 模型表达(Model Representation) 我们的第一个学习算法是线性回归算法,让我们通过一个例子来开始.这个例子用来预测住房价格,我们使用一个数据集,该数据集包含俄勒冈州波特兰市的住房价格.在这里,我要根据不同房屋尺寸所售出的价格,画出我的数据集: 我们来看这个数据集,如果你有一个朋友正想出售自己的房子,如果你朋友的房子是1250平方尺大小,你要告诉他们这房子能卖多少钱. 那么,你可以做的一件事就是构建一个模型,也许是条直线.从这个数据模型上来看,也许你可以告诉你的朋友,他大概