FPGA机器学习之机器学习的n中算法总结2

前面已经说了很多的算法了。比如说退火算法,蚂蚁算法,文化算法,禁忌算法等等。接下来要写一些其他的机器学习算法。迁移学习,集成算法,向量机,在线学习等算法。

我毛华望QQ849886241。技术博客http://blog.csdn.net/my_share

迁移学习算法:大概理解一下就是,机器学习了一些知识后,可以更容易学会其他的知识,举个例子,学会桌子的人,更容易学会认识椅子。学会下象棋的人,更容易学围棋。基于boosting的迁移学习算法。http://wenku.baidu.com/link?url=oinVyarxctHwn8fbpLXueATxEkabROgIguH_QKHI9LfSEU35UZfzl7IuoISzkE8-Q6gCxRL9aLufvYWajoleX_PhEAh3mkPOGPxvzo3HE0W。其实这个算法,在龙星计划里面有的。但是不记得在哪里了。过程比较复杂,在我的记忆里面,它是一种比较新的机器学习算法。有时间还是需要深入了解的。

PCA算法:主成分分析法。PCA方法在降维和特征提取方面很有效果,无论是图像处理也好,还是机器学习也好。PCA算法经常会出现,主要在人脸识别方面应用非常广泛。人脸识别里面的主成分脸,就是PCA算法完成的。人脸识别里面配合使用的就是神经网络了,目前人脸识别热门所以这个算法需要深入了解。

ICA算法:独立成分分析算法。我看到的第一例子就和核磁共振成像有关,看来在图像方面,它有良好的表现。该方法的目的是将观察到的数据进行某种线性分解,使其分解成统计独立成分。其实ICA和PCA(主成分分析法)同属多变量数据分析方法,但是ICA处理得到的各个分量不仅去除了相关性,还是相互统计独立的,而且是非高斯分布,因此,ICA能更加全面揭示数据间的本质结构(http://www.docin.com/p-564088508.html)。《独立成分分析》是一本书,也有关于PCA的描述。

ICA的盲信号分析领域的一个强有力方法,也是求非高斯分布数据隐含因子的方法。从之前我们熟悉的样本-特征角度看,我们使用ICA的前提条件是,认为样本数据由独立非高斯分布的隐含因子产生,隐含因子个数等于特征数,我们要求的是隐含因子。而PCA认为特征是由k个正交的特征(也可看作是隐含因子)生成的,我们要求的是数据在新特征上的投影。同是因子分析,一个用来更适合用来还原信号(因为信号比较有规律,经常不是高斯分布的),一个更适合用来降维(用那么多特征干嘛,k个正交的即可)。有时候也需要组合两者一起使用。

ECO  feature 算法:研究人员用ECO feature算法实现了超高精度的对象识别功能。http://www.cnbeta.com/articles/268834.htm。这个是唯一的材料。没有找到任何资料。从新闻描述情况来看,这个算法很好才对。有待跟进。

人工免疫算法:是一种根据人体的免疫系统发展出来的自我学习系统。在模式识别里面有一定的作用。可是查不到这个算法的效果,应该还可以。容错,稳定和鲁棒性都很好。这个算法结构好像也挺复杂的。需要深入了解才能明白。

lasso 思想算法:http://liuzg202.blog.163.com/blog/static/29427196201010259233251/从这篇文章可以了解到,这个算法,比较新,有一定的研究成果,但是好像没有什么具体资料。资料全英,不太好理解(我英语能力有限)。http://www.docin.com/p-149561253.html  

这里有写到shooting算法。我在上一篇n种算法总结1中,涉及到这个算法了。可是没有资料。

基于Lasso的人脸识别算法。http://oaps.lib.tsinghua.edu.cn/handle/123456789/2015,清华的一篇文章。看来这个lasso算法,在人脸识别算法中,还是有用的。需要深入了解了。

决策树:决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法(百度百科)。适用于概率模型,也就是说,所有的情况的概率一定要有。在机器学习中,决策树是一个预测模型(百度百科)。数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。决策树学习也是资料探勘中一个普通的方法。决策树最大的优势就是可以了解分析过程。推出逻辑表达式。对于决策树,表面的情况了解了。可是对于它的具体应用还需要深入的了解。

神经网络:神经网络,我前面的文章里面有写到,没什么好说的。它是非常重要的一种机器学习算法。它也是一种模拟人类神经网络建立起来的。它很容易就陷入局部最小值。但是建立好了,也会有很好的效果的。而且对它的改进型也很多。多了解下吧。谷歌大脑,就是一个上亿节点的神经网络。所以它的地位不可忽略。其实谷歌汽车的智能是用什么方法来完成的,我也很好奇。

深度学习:它的重要性没有什么好说的。它在机器学习里面的名声很显赫了。它是一定需要深入研究的了。大概说点吧。它是根据人工神经网络的研究得来的。含多隐层的多层感知器就是一种深度学习结构。而且在语音识别和图像识别上有很好的效果。

在线学习:在线学习在龙星计划里面有,是一种有新的输入就在学习一次的方法。百度文库的说,方法很好,但是怎么个好没说。据我了解的情况是,在线学习算法并不是单一的算法,他是配合神经网络,是神经网络里面的一个分支,在线学习不能单独使用。http://www.doc88.com/p-084413954013.html这篇文章可能是我找到最好的了。资料也很少,看来想了解需要花上一段时间才行。

离线算法:这个就完全没资料了,连概念都是比较模糊的。还不知道是不是机器学习算法呢。

集成学习算法:http://wenku.baidu.com/link?url=dnV2S27C5GPelYtE3XGBo6dWxHInXWyMh3hD052wB07SpMTL9O0yplO7DBpKcfoib2S0l244vxXEQfFYXO38JDJuoLdWkWj7Wui1kZ_STWC

这篇文章可以大概体会到,它是一种把很多机器学习方法合并在一起达到更优秀的效果的方法。在生成集成中个体网络方面,最重要的技术是Boosting [Sch90] 和Bagging [Bre96]。集成学习是机器学习中一个非常重要且热门的分支,是用多个弱分类器构成一个强分类器,其哲学思想是“三个臭皮匠赛过诸葛亮”。一般的弱分类器可以由决策树,神经网络,贝叶斯分类器,K-近邻等构成。已经有学者理论上证明了集成学习的思想是可以提高分类器的性能的,比如说统计上的原因,计算上的原因以及表示上的原因(http://www.cnblogs.com/tornadomeet/archive/2012/03/21/2409421.html)。

集成学习中主要的3个算法为:boosting,bagging,stacking.从这些了解中,可以看出,它是一个多算法集成过程。既然不冲突,效果也比较良好,可以深究一下。

支持向量机:从我在stanford大学的机器学习里面知道,支持向量机的性能也特别的好。SVM一般只能用在二类问题,对于多类问题效果不好(百度百科)。看来有一定局限性呀。我还是看看对图像方面有什么特点吧。SVM方法是通过一个非线性映射p,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题.简单地说,就是升维和线性化(百度百科)。好像在二值分类问题才能有良好的效果。http://blog.sina.com.cn/s/blog_89ba75c80101gxgn.html我个人感觉这篇讲的通俗些。

EM算法:最大似然估计。不是什么具体算法来着,就是常常出现在机器学习算法里面而已。

线性回归:stanford机器学习里面也有。就是给出一些真实的房价和面积的数据,然后用一个函数逼近,然后预测其他的房价和面积的情况。http://wenku.baidu.com/link?url=9jwYIM0Cluj_RBpfplzA_cE31rikmkG_-QMoBjYDsxU7PQ51zDcgipfMc2BurtB34BuFzYLJOwo5cdCs4GCxCNS4zZNG7lvD42iwLzfEPVq随便看下好了。

Apriori算法:主要是什么呢??是2个物品之间的相关度,http://blog.csdn.net/lizhengnanhua/article/details/9061755这里讲解的不错。涉及到这两个概念:支持度3%:意味着3%顾客同时购买牛奶和面包置信度40%:意味着购买牛奶的顾客40%也购买面包。通过度量这两个量,在数据里面,找到数据之间的联系。

这张图能说明很多东西。

朴素贝叶斯算法:贝叶斯分类,我听了很多。是一种通过先验概率,通过贝叶斯公式求出后验概率的过程。选择具有最大后验概率的类作为该对象所属的类。可是从我目前知道的情况来看,某种特定情况下,分类比较良好。也有可能是和其他的机器学习算法配合使用。贝叶斯也就是这么一个公式而已了。

K-means算法:k均值聚类算法。就是就是把这些点找到合适聚类中心的一种方法。这个聚类算法,在图像分割方面却有一定的优势,这个算法也很简单,求每个点离哪个中心比较近。其实这个算法也很多问题,比如聚类中心多少个等。但是既然在图像分割上有一定的优势,不妨查看一下。

FP-growth算法:它是apriori算法的升级版。为了解决Apriori算法在挖掘额长频繁模式的时候性能往往低下的现象而提出来的。

结构图。对我了解到的情况就是APRIORI算法的内容是一样的。只是性能更好了。

以上就是我大概知道,能找到的机器学习算法了。还有一些最平常的升级的算法,就没有写进来。刚刚熟悉,并不准确,仅仅是概念。

时间: 2024-08-06 16:03:51

FPGA机器学习之机器学习的n中算法总结2的相关文章

FPGA机器学习之机器学习的n中算法总结1

机器学习是AI领域的重要一门学科.前面我描述过,我计划从事的方向是视觉相关的机器学习分类识别,所以可能在每个算法的分析中,只加入在视频,视觉领域的作用. 我毛华望849886241.技术博客http://blog.csdn.net/my_share SA算法,Fea-G算法,DANOVA算法,SOA算法,Shooting算法.这个是从网页中,百度说他们特有的算法. Fea-G算法,DANOVA算法,SOA算法,没有任何资料. shooting算法,叫射门算法(百度和必应的结果).但是射门算法,并

推荐文章:机器学习:“一文读懂机器学习,大数据/自然语言处理/算法全有了

PS:文章主要转载自CSDN大神"黑夜路人"的文章:          http://blog.csdn.NET/heiyeshuwu/article/details/43483655      本文主要对机器学习进行科普,包括机器学习的定义.范围.方法,包括机器学习的研究领域:模式识别.计算机视觉.语音识别.自然语言处理.统计学习和数据挖掘.这是一篇非常好的文章,尤其感学原文作者~          http://www.thebigdata.cn/JieJueFangAn/1308

一文读懂机器学习,大数据/自然语言处理/算法全有了……

原文地址 http://www.open-open.com/lib/view/open1420615208000.html http://www.cnblogs.com/subconscious/p/4107357.html 引论 在本篇文章中,我将对机器学习做个概要的介绍.本文的目的是能让即便全然不了解机器学习的人也能了解机器学习.而且上手相关的实践.这篇文档也算是 EasyPR开发的番外篇.从这里開始.必须对机器学习了解才干进一步介绍EasyPR的内核.当然,本文也面对一般读者.不会对阅读有

Spark机器学习(8):LDA主题模型算法

1. LDA基础知识 LDA(Latent Dirichlet Allocation)是一种主题模型.LDA一个三层贝叶斯概率模型,包含词.主题和文档三层结构. LDA是一个生成模型,可以用来生成一篇文档,生成时,首先根据一定的概率选择一个主题,然后在根据概率选择主题里面的一个单词,这样反复进行,就可以生成一篇文档:反过来,LDA又是一种非监督机器学习技术,可以识别出大规模文档集或语料库中的主题. LDA原始论文给出了一个很简单的例子.Arts.Budgets.Children.Educatio

【机器学习】机器学习的经典算法

https://mp.weixin.qq.com/s/CxSG9l_dxA4G-SZKOGI1ng 本文为整篇文章第二部分,整篇文章主要目录如下: 1:一个故事说明什么是机器学习 2:机器学习的定义 3:机器学习的经典算法 4:机器学习的应用--大数据 5:机器学习的子类--深度学习 6:机器学习的父类--人工智能 7:机器学习的思考--计算机的潜意识 8:总结 通过从机器学习谈起(1)的介绍我们知晓了机器学习的大致,那么机器学习里面究竟有多少经典的算法呢?在这个部分我会简要介绍一下机器学习中的

Python机器学习实战<三>:k-邻近算法

安装说明参考openssl源码文件夹下INSTALL.W32 step1 环境搭建 安装perl,Visual Studio 2008 下载Openssl最新版源码.我下的版本为OpenSSL-1.0.0g. step2 启动Visual Studio 2008 Command Prompt 运行bin\vcvars32 设置 环境变量 注意: 如遇反馈"此处不应该有/Microsoft",参考错误1. step3 VS命令行窗口cd至openssl源码文件夹 执行以下命令 $perl

《机器学习实战》基于朴素贝叶斯分类算法构建文本分类器的Python实现

============================================================================================ <机器学习实战>系列博客是博主阅读<机器学习实战>这本书的笔记,包括对当中算法的理解和算法的Python代码实现 另外博主这里有机器学习实战这本书的全部算法源码和算法所用到的源文件,有须要的留言 ====================================================

【机器学习】手写数字识别算法

1.数据准备 样本数据获取忽略,实际上就是将32*32的图片上数字格式化成一个向量,如下: 本demo所有样本数据都是基于这种格式的 训练数据:将图片数据转成1*1024的数组,作为一个训练数据. 训练数据集:https://github.com/zimuqi/machine_Learning/tree/master/ch02/trainingDigits 测试数据集:https://github.com/zimuqi/machine_Learning/tree/master/ch02/test

【作业四】林轩田机器学习技法 + 机器学习公开新课学习个人体会

这次作业的coding任务量比较大,总的来说需要实现neural network, knn, kmeans三种模型. Q11~Q14为Neural Network的题目,我用单线程实现的,运行的时间比较长,因此把这几道题的正确答案记录如下: Q11: 6 Q12: 0.001 Q13: 0.01 Q14: 0.02 ≤ Eout ≤ 0.04 其中Q11和Q14的答案比较明显,Q12和Q13有两个答案比较接近(参考了讨论区的内容,最终也调出来了) neural network的代码实现思路如下:

二叉树链表中一个结论的证明以及 Successor() 函数中算法的解释

首先, 先明确 “结点 x 的 successor” 的概念. 这句话的概念是, successor 是整个二叉树中, key 仅比 x 的 key 大的结点. 求证: 若 x 有两个孩子, 那么其 successor 没有左孩子. 证明: 若 x 有两个孩子, 则其右子树存在.在二叉树链表中, 对于任意 x 的右子树都是 key 比 x 的 key 大的结点的集合, 即{y|y->key > x->key}.根据 successor  的定义, 若 x->rightChild ≠