机器学习中各个算法的优缺点(四)

在前面的文章中我们给大家介绍了很多关于机器学习的算法,这些算法都是能够帮助大家更好地理解机器学习,而机器学习的算法各种各样,要想好好地使用这些算法就需要对这些算法一个比较透彻的了解。我们在这篇文章中接着给大家介绍一下机器学习中涉及到的算法的最后一部分内容。

首先说一下聚类算法,聚类算法是指对一组目标进行分类,属于同一组的目标被划分在一组中,与其他组目标相比,同一组目标更加彼此相似。聚类算法的例子有很多,比如说K-均值(k-Means)、k-Medians 算法、Expectation Maximi 封层 ation (EM)、最大期望算法(EM)、分层集群,聚类算法的优点就是让数据变得有意义。缺点就是结果难以解读,针对不寻常的数据组,结果可能无用。

然后我们给大家说一下基于实例的算法,基于实例的算法是这样学习算法,不是明确归纳,而是将新的问题例子与训练过程中见过的例子进行对比,这些见过的例子就在存储器中。之所以叫基于实例的算法是因为它直接从训练实例中建构出假设。这意味这,假设的复杂度能随着数据的增长而变化:最糟的情况是,假设是一个训练项目列表,分类一个单独新实例计算复杂度为 O(n)。这种算法有很多的例子,比如说K 最近邻、学习向量量化、自组织映射、局部加权学习。而这种算法的优点就是算法简单、结果易于解读。缺点就是内存使用非常高、计算成本高、不可能用于高维特征空间。

接着我们给大家说一下贝叶斯算法,贝叶斯方法是指明确应用了贝叶斯定理来解决如分类和回归等问题的方法。贝叶斯算法的例子有很多,具体就是朴素贝叶斯、高斯朴素贝叶斯、多项式朴素贝叶斯、平均一致依赖估计器、贝叶斯信念网络贝叶斯网络。而贝叶斯算法的优点是快速、易于训练、给出了它们所需的资源能带来良好的表现。缺点就是如果输入变量是相关的,则会出现问题。

下面我们给大家介绍一下关联规则学习算法、而关联规则学习方法能够提取出对数据中的变量之间的关系的最佳解释。具体例子局Apriori 算法、Eclat 算法、FP-growth。

图模型或概率图模型是一种概率模型,一个图可以通过其表示随机变量之间的条件依赖结构。具体的例子就是贝叶斯网络、马尔可夫随机域、链图、祖先图。优点就是模型清晰,能被直观地理解。缺点就是确定其依赖的拓扑很困难,有时候也很模糊。

关于机器学习涉及到的算法我们给大家介绍完了。还是那句话,我们要想学好人工智能就必须重视机器学习,而要想学好机器学习就需要掌握这些算法,对这些算法的优点缺点有一个透彻的了解。

原文地址:https://www.cnblogs.com/ilovetang/p/10523796.html

时间: 2024-10-25 00:13:21

机器学习中各个算法的优缺点(四)的相关文章

paper 56 :机器学习中的算法:决策树模型组合之随机森林(Random Forest)

周五的组会如约而至,讨论了一个比较感兴趣的话题,就是使用SVM和随机森林来训练图像,这样的目的就是 在图像特征之间建立内在的联系,这个model的训练,着实需要好好的研究一下,下面是我们需要准备的入门资料: [关于决策树的基础知识参考:http://blog.csdn.net/holybin/article/details/22914417] 在机器学习中,随机森林由许多的决策树组成,因为这些决策树的形成采用了随机的方法,所以叫做随机森林.随机森林中的决策树之间是没有关联的,当测试数据进入随机森

机器学习中的算法(1)-决策树模型组合之随机森林与GBDT

版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等.但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的. 模型组合(比如

机器学习中的算法:决策树模型组合之GBDT(Gradient Boost Decision Tree)

[转载自:http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/random-forest-and-gbdt.html] 前言 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等.但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的. 模型组合(比如说有Boosting,Bagging等

机器学习中的算法——决策树模型组合之随机森林与GBDT

前言: 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等.但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的. 美国金融银行业的大数据算法:随机森林模型+综合模型 模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几百棵以上)棵树,这样可以大大的减少单决策树带来的毛病,有

机器学习中使用的神经网络第四讲笔记

Geoffery Hinton教授的Neuron Networks for Machine Learning的第四讲主要介绍如何使用back propagation算法来学习到词汇的特征表示. Learning to predict the next word 接下来的几小节主要介绍如何使用back propagation算法来学习到词汇的特征表示.我们从一个很简单的例子开始,介绍使用back propagation算法来将词汇间的相关信息转换成特征向量. 下图给出了一个家庭的树状图,我们要做的

机器学习中常见的最优化算法

我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题"在一定成本下,如何使利润最大化"等.最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称.随着学习的深入,博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如我们现在学习的机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优

[聚类算法]K-means优缺点及其改进

[聚类算法]K-means优缺点及其改进 [转]:http://blog.csdn.net/u010536377/article/details/50884416 K-means聚类小述 大家接触的第一个聚类方法,十有八九都是K-means聚类啦.该算法十分容易理解,也很容易实现.其实几乎所有的机器学习和数据挖掘算法都有其优点和缺点.那么K-means的缺点是什么呢? 总结为下: (1)对于离群点和孤立点敏感: (2)k值选择; (3)初始聚类中心的选择: (4)只能发现球状簇. 对于这4点呢的

ML 07、机器学习中的距离度量

机器学习算法 原理.实现与实践 —— 距离的度量 声明:本篇文章内容大部分转载于July于CSDN的文章:从K近邻算法.距离度量谈到KD树.SIFT+BBF算法,对内容格式与公式进行了重新整理.同时,文章中会有一些对知识点的个人理解和归纳补充,不代表原文章作者的意图. 1. 欧氏距离 欧氏距离是最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 $x = (x_1,\cdots,x_n)$ 和$y = (y_2,\cdots,y_n)$之间的距离为: $$

【机器学习】机器学习的经典算法

https://mp.weixin.qq.com/s/CxSG9l_dxA4G-SZKOGI1ng 本文为整篇文章第二部分,整篇文章主要目录如下: 1:一个故事说明什么是机器学习 2:机器学习的定义 3:机器学习的经典算法 4:机器学习的应用--大数据 5:机器学习的子类--深度学习 6:机器学习的父类--人工智能 7:机器学习的思考--计算机的潜意识 8:总结 通过从机器学习谈起(1)的介绍我们知晓了机器学习的大致,那么机器学习里面究竟有多少经典的算法呢?在这个部分我会简要介绍一下机器学习中的