时间序列的自回归模型—从线性代数的角度来看

Fibonnacii序列求解通项的线性代数方法

? Fibonacci的递归通项

\[F_n = F_{n-1} + F_{n-2}
\]

? 递归的通项的矩阵形式

\[\left(
\begin{matrix}
F_{n+2} \F_{n+1}
\end{matrix}
\right)
=
\left(
\begin{matrix}
1 & 1 \1 & 0
\end{matrix}
\right)
\left(
\begin{matrix}
F_{n+1} \F_{n}
\end{matrix}
\right)
=
A\left(
\begin{matrix}
F_{n+1} \F_{n}
\end{matrix}
\right)
\]

\[\left(
\begin{matrix}
F_{n} \F_{n-1}
\end{matrix}
\right)
=A\left(
\begin{matrix}
F_{n-1} \F_{n-2}
\end{matrix}
\right)
=…=
A^{n-1}
\left(
\begin{matrix}
F_1 \F_0
\end{matrix}
\right)
\]

计算矩阵幂的方法

? 直接计算或矩阵对角化。可参考例题

  • 矩阵对角化:若\(m \times m\)矩阵\(A\)能对角化,则存在可逆矩阵\(P\)(由\(A\)的特征向量组成)使得

\[P^{-1}AP=diag(\lambda_1,...,\lambda_m) \=> AP = Pdiag(\lambda_1,...,\lambda_m) \=> A = Pdiag(\lambda_1,...,\lambda_m)P^{-1} \\]

从而

\[A^k = (PDP^{-1})(PDP^{-1})...(PDP^{-1})=PD^kP^{-1}=Pdiag(\lambda^k_1,...,\lambda_m^k)P^{-1}
\]

  • 由于有对角矩阵,可以把矩阵\(P\)写成列向量的形式,\(P=(\vec a_1, \vec a_2, ...,\vec a_m)\),则上面的方程可转化为

\[A\vec a_i = \lambda_i\vec a_i, 1\leq i \leq m
\]

其中\(\vec a_i\)是特征向量,\(\lambda_i\)是特征值。

  • 求矩阵\(A\)的特征向量和特征值的方法是,求解下列行列式(也是多项式)的根得到特征值,再求出特征向量,进而得到\(P\),直接带入式子求解\(A\)。

\[det(\lambda I-A)=0\\其中I是单位矩阵(identity-matrix)
\]

来自时间序列的自回归模型—从线性代数的角度来看

原文地址:https://www.cnblogs.com/vvlj/p/12625452.html

时间: 2024-10-06 12:20:24

时间序列的自回归模型—从线性代数的角度来看的相关文章

线性代数的本质

线性代数的本质 文/冯波 线性代数课程,无论你从行列式入手还是直接从矩阵入手,从一开始就充斥着莫名其妙. 比如说,在全国一般工科院系教学中应用最广泛的同济线性代数教材(现在到了第四版),一上来就介绍逆序数这个古怪概念,然后用逆序数给出行列式的一个极不直观的定义,接着是一些简直犯傻的行列式性质和习题——把这行乘一个系数加到另一行上,再把那一列减过来,折腾得那叫一个热闹,可就是压根看不出这个东西有嘛用. 大多数像我一样资质平庸的学生到这里就有点犯晕:连这是个什么东西都模模糊糊的,就开始钻火圈表演了,

从统计学角度来看深度学习(1):递归广义线性模型

从统计学角度来看深度学习(1):递归广义线性模型 原文链接:http://blog.shakirm.com/2015/01/a-statistical-view-of-deep-learning-i-recursive-glms/ 作者:Shakir Mohamed        翻译:王小宁      审校:冯凌秉  朱雪宁   编辑:王小宁 本文得到了原英文作者Shakir Mohamed的授权同意,由王小宁翻译.冯凌秉和朱雪宁审校.感谢他们的支持和帮助. 深度学习及其应用已经成为实用机器学

线性代数的本质与几何意义 02. 线性组合、张成的空间、基(3blue1brown 咪博士 图文注解版)

1. 线性组合 接下来我们要换一个角度来看向量.以二维平面直角坐标系为例,i, j 分别是沿 2 个坐标轴方向的单位向量.那么坐标平面上的其他向量,例如 [ 3  -2 ] [3?与 i, j 是什么关系呢? 将向量 i 沿水平向右的方向拉升 3 倍,向量 j 沿竖直向下的方向拉升 2 倍 这样,我们可以将向量 [ 3  -2 ] [3?2] 看成是将向量 i, j 缩放后再相加的结果 向量 i, j 称为基向量,其他向量都可以通过对基向量缩放再相加的方法构造出来.基向量缩放的倍数对应向量的各个

从jvm的角度来看单例模式

最近在看jvm,发现随着自己对jvm底层的了解,现在对java代码可以说是有了全新的认识.今天就从jvm的角度来看一看以前自以为很了解的单例模式. 了解单例模式的人都知道,单例模式有两种:"饿汉模式"和"懒汉模式". 引用一段网上对这两种模式的介绍: "饿汉模式的特点是加载类时比较慢,但运行时获取对象的速度比较快,线程安全.饿汉式是线程安全的,在类创建的同时就已经创建好一个静态的对象供系统使用,以后不在改变.懒汉模式的特点是加载类时比较快,但是在运行时获取

从风险管理的角度来看是否须要个性化推荐

一  背景 1.现今 ,个性化技术被广泛用于推荐系统 . 特别是基于用户的偏好数据进行个性化预測的 协同过滤算法,已被证是实际可行的.然而 在某种程度上我们并不知道个性化推荐是否总是 能优于非个性化推荐.<Performance of recommender algorithms on top-n recommendation tasks>已证实基于热门的推荐也有相当好的效果.下图是Bayesian personalized ranking 和 popularity-based 推荐算法的结果

从程序员的角度来看为什么我们需要工作流

每一个程序员,在接触到工作流的时候,都会有这么一个疑问--我用一般的方法可以实现,为什么还要用工作流? 我曾经也问过这个问题,不过现在稍微有点明白了.别着急要答案,看过下面的例子,或许你也就明白一些了. 这是一个简单的业务--订货流程: 客户提交采购订单 业务员执行订单处理 如果缺货,转工厂生产 仓库出货 物流发货 如果不使用工作流技术,从头开始开发这个订购流程的业务逻辑,我们需要: 每个活动点都需要开发交互页面和后台处理程序 每个活动的流转都需要硬性判断下一步活动节点及其操作人 每次操作都需要

从统计学角度来看深度学习(2):自动编码器和自由能

从统计学角度来看深度学习(2):自动编码器和自由能 原文链接:http://blog.shakirm.com/2015/03/a-statistical-view-of-deep-learning-ii-auto-encoders-and-free-energy/ 作者:Shakir Mohamed  翻译:钟琰    审校:何通    编辑:王小宁 本文得到了原英文作者Shakir Mohamed的授权同意,由钟琰翻译.何通审校.感谢他们的支持和帮助. 基于前馈深度神经网络的判别模型已经在许多

《线性代数的几何意义》任广千高清PDF完整版学习

资源链接:https://pan.baidu.com/s/10MWPlZS60D08HLADR_O5Ow高清中文PDF版,290页,为完整版.本书使用向量的概念对国内高校工科"线性代数"的课程内容进行了较全面的几何分析.从向量的几何意义开始,分别讲述了向量组.向量空间.行列式.矩阵.线性方程组和二次型的几何意义或几何解释,其中不乏重要概念的物理意义的解释.这本书就像一串项梁,把上百个概念和定理的几何意义串在一 起敬献给读者朋友.本书图文并茂,思路清晰.语言流畅,概念及定理解释得合理.自

线性代数的本质(0)

线性代数可以说是在机器学习最最重要的数学工具,也是最最重要的思考方式.学懂了线性代数,机器学习就会变得十分清晰明了.所以明白线性代数的本质是很有必要的,你会明白所有的操作是为了什么,所有变换是怎么进行的,这对我们学习机器学习是很有帮助的. 线性代数的本质(视频) 该系列视频我觉得非常值得推荐,它阐述了大学老师根本不会跟你讲的一些线性代数的理解,让你知道究竟行列式在算什么(很多人学完了只知道行列式怎么算,却不知道行列式有什么意义),还有矩阵乘法为什么是这样的法则,矩阵的秩到底是什么-- 看完之后,