FPGA机器学习之stanford机器学习第三堂1

请注意:csdn那边的博客http://blog.csdn.net/my_share。因为那边审核的时间太长。搬迁入这里。stanford机器学习前2堂在CSDN的博客里面。

刚开始他写了,这个公式第二堂讲的,是梯度下降法,预测房价的那个。

第二堂讲的线性回归,我们假设的房价的预测可以用线性方程来拟合。那只是一个假设量。其实可以用多次函数拟合。按照视频的说法就是,如果你只有7个样本,你就可以用一个6次函数完成拟合。这个结论可以记住,其实我csdn里面关于神经网络中隐层数量设计的时候,也涉及到这一点。具体原因我不是很明白,可是这个现象理解。

如果完全拟合的话,并不能说明你拟合的很好,也有可能是你的数据样本采集的不正确。

过拟合就是说,仅仅是拟合了某种特定状况的行为特征。而没有反应出房价和面积的真正规律。

locally weighted linear regression

局部加权线性回归。从表面上看局部加权线性回归还是线性回归,所以基本结构还是一样的。不过区别在于,

这个是上一堂线性回归的要求。

这个是加权线性回归。多了一个w是权系数。而这个w呢??

这里这个T呢。叫带宽系数,是我们自己设定的。和a学习系数的性质差不多。从这个式子可以看出,其实是用周边的点,来拟合当前的点。离的远的贡献就低一些,也就是关联性不强。这样拟合的就准确一些。

按照老师的说法是,w的函数还在讨论中,仅仅是e指数比较合适。

这个函数每一次预测都需要重新局部训练,具体怎么回事??还是看视频吧。好像是每次都是局部拟合,而且线性。用周边的来预测。说明局部加权回归这里的i是当前附近的几个点,在训练的结果。而最终拟合成非线性函数。

好像这个是每一次预测都需要重新学习重新拟合,所以数据量大的时候,代价很大。

epsilon希腊字母,表示的是error,表示那些没有被表示出来的特征。被遗忘的参考因素等。

这里的误差模型为什么选用高斯分布,第一个它只是一个方便的讨论模型,第二个,目前最合适的。

...............未完待续。

我能力有限,但是我努力的将学习成果分享。到这里就是我今天所学到的新知识,一起学习一起努力吧。

FPGA机器学习之stanford机器学习第三堂1

时间: 2024-11-05 00:26:12

FPGA机器学习之stanford机器学习第三堂1的相关文章

Stanford机器学习课程笔记4-Kmeans与高斯混合模型

这一部分属于无监督学习的内容,无监督学习内容主要包括:Kmeans聚类算法.高斯混合模型及EM算法.Factor Analysis.PCA.ICA等.本文是Kmeans聚类算法.高斯混合模型的笔记,EM算法是适用于存在latent/hidden变量的通用算法,高斯混合模型仅仅是EM算法的一种特殊情况,关于EM算法的推到参见Andrew Ng讲义.由于公式太多,最近时间又忙实习的事就简单写一些,回头看时还得参考Ng的笔记和自己的打印Notes上的笔记,这里的程序对理解可能能提供另外的一些帮助. K

Stanford机器学习课程笔记——神经网络的表示

Stanford机器学习课程笔记--神经网络的表示 1. 为什么要引入神经网络 其实这个问题等价与神经网络和之前的回归模型有什么区别,如果你没有学过其他机器学习算法的话.这个问题可以通过一个例子来说明:如果样本都是60*60的图像,那么每个样本的特征维数都是3600个,使用前面讲的线性回归模型,那么需要建立的参数个数就有3600的:如果是非线性回归模型,还要考虑高次项的情况,需要求解的参数就更加多了.此时的回归模型将会变得异常复杂,故我们需要其余比较高效的模型来解决这些实际的问题.这个时候我们就

Stanford机器学习[第六讲]-朴素贝叶斯算法

引文:由于之前讲过了朴素贝叶斯的理论Stanford机器学习[第五讲]-生成学习算法第四部分,同时朴素贝叶斯的算法实现也讲过了,见机器学习算法-朴素贝叶斯Python实现.那么这节课打算讲解一下朴素贝叶斯算法的具体计算流程,通过一个具体的实例来讲解. PS:为了专注于某一个细节,本章节只抽取了视频的一部分来讲解,只讲解一个贝叶斯算法的计算流程,关于视频里面的具体内容请参考下面的视频链接. 讲解的实例是一个文本分类的例子,区分一句话是粗鲁的还是文明的,类别标签只有Yes或No,表示是粗鲁的和不是粗

Stanford机器学习[第五讲]-生成学习算法

本课内容: 生成学习算法的介绍: 第一个典型的生成学习算法--高斯判别分析: 生成学习算法与之前的判别学习算法的对比: 朴素贝叶斯算法, Laplace平滑. 1.生成学习算法 学习算法分为两种:一种是判别学习算法(Discriminative Learning Algorithm),简称DLA,另一种是生成学习算法(Generative Learning Algorithm),简称GLA. DLA通过建立输入空间X与输出标注{1, 0}间的映射关系学习得到p(y|x).而GLA首先确定p(x|

Stanford机器学习课程笔记——SVM

Stanford机器学习课程笔记--SVM 前面已经学习过SVM,写了几片博文,如下: 入门SVM:http://blog.csdn.net/puqutogether/article/details/39894835 SVM中的线性不可分情况:http://blog.csdn.net/puqutogether/article/details/41309745 SVM中的多类分类问题:http://blog.csdn.net/puqutogether/article/details/4167960

Stanford机器学习课程笔记——单变量线性回归和梯度下降法

Stanford机器学习课程笔记--单变量线性回归和梯度下降法 1. 问题引入 单变量线性回归就是我们通常说的线性模型,而且其中只有一个自变量x,一个因变量y的那种最简单直接的模型.模型的数学表达式为y=ax+b那种,形式上比较简单.Stanford的机器学习课程引入这个问题也想让我们亲近一下machine learning这个领域吧~吴恩达大神通过一个房屋交易的问题背景,带领我们理解Linear regression with one variable.如下: 不要看这个问题简答,大神就是大神

FPGA在其他领域的应用(三)

广播领域: 专业的A/V(音频/视频),和演播室行业正在经历着激动人心的变化,例如,UHD/8K (超高清)视频.多平台内容交付.IP网络传输和云计算.2016里约奥运会使用4K分辨率视频播放,而日本计划在2020东京奥运会是用8K分辨率视频同步播放.此外,在线视频流服务现在可以向观众提供4K和4K HDR(高动态范围图像)分辨率视频内容. HDR技术 媒体标准不断发展,以跟上不断变化的更高的分辨率.更快的帧速率驱动.深色和移动IP网络技术要求.市场造成的不确定性引起的最低成本和最低风险的新技术

《机器学习实战》-机器学习基础

目录 机器学习基础 什么是机器学习 机器学习 应用场景 海量数据 机器学习的重要性 机器学习的基本术语 监督学习和非监督学习 监督学习:supervised learning 非监督学习:unsupervised learning 机器学习工具介绍 Python 非 Python NumPy 函数库基础 测试 Numpy 库 测试 NumPy 库代码整合 总结 机器学习基础 什么是机器学习 机器学习的基本术语 监督学习和非监督学习 机器学习工具介绍 总结 人工智能的核心是机器学习,机器学习的本质

一步一步入门机器学习之五:机器学习自学指南

事实上有许多的途径可以了解机器学习,也有许多的资源例如书籍.公开课等可为所用,一些相关的比赛和工具也是你了解这个领域的好帮手.本文我将围绕这个话题,给出一些总结性的认识,并为你由程序员到机器学习高手的蜕变旅程中提供一些学习指引. 机器学习的四个层次 根据能力可以将学习过程分成四个阶段.这也是一个有助于我们将所有学习资源进行分类的好方法. 初学阶段 新手阶段 中级阶段 高级阶段 我之所以把初学阶段和新手阶段区分开来,是因为我想让那些完全初学者(对这个领域感兴趣的程序员)在初学阶段对机器学习有一个大