(楚才国科)最新机器学习必备十大入门算法!

简介

机器学习算法是能够从数据中学习和从经验中改进而不需要人为干预的算法。学习任务包括学习将输入映射到输出的函数,学习未标记数据中的隐藏结构或“基于实例的学习”,其中通过将新实例与存储在存储器中的训练数据的实例进行比较,为新实例生成类标签。“基于实例的学习”不会从具体实例中创建抽象。

机器学习算法的类型

机器学习算法有三种:

监督学习:监督学习可以解释如下:

使用标示的训练数据从输入变量(x)到输出变量(y)学习映射函数。

Y = f(x)

监督学习问题有两种:

a分类:预测给定样本的结果,其中输出变量是类别。举例来说,比如男性还是女性、病态还是健康等标签。

b回归:预测输出变量为实值形式的给定样本的结果。举例来说,比如表示降雨量、一个人的身高等实际值的标签。

我们在本博客中讨论的前5种算法——线性回归、Logistic回归、CART(分类回归树)、朴素贝叶斯、KNN(K临近算法),他们都是监督学习的例子。

集成(Ensembling)是一种监督学习。这意味着结合多个不同的弱机器学习模型的预测来预测新的样本。

无监督学习:

无监督学习问题仅具有输入变量(x),但没有相应的输出变量。它使用未标记的训练数据来模拟数据的底层结构。

无监督的学习问题有两种:

A关联:发现集合中同现的概率。广泛应用于购物篮分析。示例:如果客户购买面包,他有80%可能也会购买鸡蛋。

B聚类:分组样本,使得同一群集中的对象彼此之间比来自另一个群集的对象更相似。

C降维:就其名称而言,Dimensionality Reduction(减少维度)意味着减少数据集的变量数量,同时确保重要的信息仍然被传达。使用特征提取方法和特征选择方法可以进行降维。特征选择选择原始变量的一个子集。特征提取执行从高维空间到低维空间的数据变换。示例:PCA算法(主成分分析算法)是一种特征提取方法。

我们在这里介绍的算法6-8——Apriori、K-means、PCA(主成分分析算法)都是无监督学习的例子。

强化学习:

强化学习是一种机器学习算法,允许智能体通过学习最大化奖励的行为来决定基于其当前状态的最佳下一个动作。

强化算法通常通过尝试和失误来学习最佳动作。它们通常用于机器人技术——机器人可以通过在碰撞障碍物之后接收负反馈而学习避免碰撞,而在视频游戏中可以通过尝试和错误揭示特定的动作,从而可以激发奖励。然后,智能体可以使用这些奖励了解游戏的最佳状态,并选择下一个动作。

量化机器学习算法的流行度

有人做过一些调查报告(http://www.cs.uvm.edu/~icdm/algorithms/10Algorithms-08.pdf),量化了10种最流行的数据挖掘算法。然而,这样的列表是主观的,就引用的论文而言,被调查参与者的样本规模非常窄,都是数据挖掘的高级从业人员。被调查者包括ACM KDD创新奖、IEEE ICDM研究贡献奖的获奖者,KDD-06、ICDM‘06和SDM‘06的计划委员会成员和ICDM‘06的145位与会者。

本博客中的十大算法适用于初学者,主要是我在计算机工程学士学位期间从“数据存储与挖掘”(DWM)课程中学到的。DWM课程是机器学习算法领域的一个很好的介绍。基于Kaggle比赛的流行度,我特别涵盖了最后2个算法(集成方法)。希望你喜欢这篇文章!

监督学习算法

  1. 线性回归

在机器学习中,我们有一组用于确定输出变量(y)的输入变量(x)。输入变量和输出变量之间存在关系。机器学习的目标是量化这种关系。

图1:线性回归以y = ax + b的形式表示为一条直线

在线性回归中,输入变量(x)和输出变量(y)之间的关系表示为y = ax + b形式的等式。因此,线性回归的目标是找出系数a和b的值。这里,a是截距,b是线的斜率。

图1显示了数据集的x和y值。目标是找到匹配最接近大多数点的线。这将减少数据点的y值和行之间的距离(error)。

  1. Logistic回归

线性回归预测是连续值(比如以cm为单位的降水),Logistic回归预测是应用变换函数后的离散值(比如学生是否考过/挂科)。

Logistic回归最适合于二进制分类(y = 0或1,其中1表示默认类)的数据集。示例:在预测事件是否发生时,其发生的事件被分类为1;在预测是否病人不生病,病例均为1。它以其中使用的转换函数命名,称为Logistic函数h(x)= 1 /(1 + e ^ x),它是一个S形曲线。

在Logistic回归中,输出是默认类的概率的形式(与直接生成输出的线性回归不同)。因为这是一个概率,输出在0-1的范围内。使用逻辑函数h(x)= 1/(1 + e ^ -x)通过log变换x值来生成输出(y值)。然后应用阈值将该概率强制为二进制分类。

图2:用于确定肿瘤是恶性还是良性的Logistic回归。如果概率h(x)> 0.5,则分类为恶性。

在图2中,为了确定肿瘤是否恶性,默认变量为y = 1(肿瘤=恶性)。x变量可以是肿瘤的测量,例如肿瘤的大小。如图所示,Logistic函数将数据集的各种实例的x值转换为0到1的范围。如果概率超过阈值0.5(由水平线表示),则将肿瘤分类作为恶性。

Logistic回归方程P(x)= e ^(b0 + b1 x)/(1 + e ^(b0 + b1 x))可以转换为ln(p(x)/1-p(x) = b0 + b1*x。

Logistic回归的目标是使用训练数据来找到系数b0和b1的值,以便将预测结果与实际结果之间的误差最小化。使用最大似然估计技术来估计这些系数。

  1. CART(分类和回归树)

分类和回归树(CART)是一种决策树的实现方法。

非终端节点是根节点和内部节点。终端节点是叶节点。每个非终端节点表示单个输入变量(x)和该变量上的分割点;叶节点表示输出变量(y)。使用以下模型进行预测:沿着树的分割走,到达叶节点并输出叶节点上存在的值。

图3中的决策树根据年龄和婚姻状况分类是否会购买跑车或小型货车。如果这个人已经超过30岁,没有结婚,我们就像下面这样沿着树走:“30多岁吗?”- >是->结婚了吗?最后,该模型输出结果是一辆跑车。

  1. 朴素贝叶斯

为了计算事件发生的概率,给定另一个事件已经发生,我们使用贝叶斯定理。为了计算给定某个变量值的结果的概率,也就是计算假设(h)为真的概率,给定了我们的先验知识(d),我们使用贝叶斯定理如下:

P(h|d)=(P(d|h)*P(h))/P(d)

其中
P(h|d)=后验概率。给定数据d,假设h的概率为真,其中P(h|d)= P(d1|h) P(d2|h) .... P(dn| h) P)
P(d|h)=似然。给定假设h为真的数据d的概率
P(h)=等级先验概率。假设h的概率为真(不考虑数据)
P(d)=预测先验概率。数据的概率(不论假设如何)

这个算法被称为“朴素(naive)”,因为它假设所有的变量是相互独立的,这是在现实世界中做出的一个天真(naive)的假设。

图4:使用朴素贝叶斯预测使用变量“天气”的“游玩”状态。

以图4为例,如果weather =‘sunny‘,结果如何?

考虑到变量weather =‘sunny‘的值,确定结果play =‘yes‘或‘no‘,计算P(yes|sunny)和P(no|sunny),并以较高的概率选择结果。

  • > P(yes|sunny)=(P(sunny|yes) P(yes))/ P(sunny)
    =(3/9
    9/14)/(5/14)
    = 0.60
  • > P(no|sunny)=(P(sunny|no) P(no))/ P(sunny)
    =(2/5
    5/14)/(5/14)
    = 0.40

因此,如果天气=“阳光明媚”,结果是游玩=“是”。

  1. KNN

k近邻算法使用整个数据集作为训练集,而不是将数据集分为训练集和测试集。

当新数据实例需要结果时,KNN算法遍历整个数据集,以找到新实例的k个最近实例,或与新记录最相似的k个实例,然后输出分类问题的结果(回归问题)或模式(最常见的类)。k的值是用户指定的。

实例之间的相似性使用诸如欧氏距离和汉明距离之类的度量来计算。

  1. Apriori

Apriori算法在事务数据库中用于挖掘频繁项集,然后生成关联规则。它广泛用于购物篮分析,用于检查数据库中经常共存的产品的组合。一般来说,我们编写关联规则为:如果一个人购买物品X,那么他将物品Y,写作:X - > Y.

示例:如果一个人购买牛奶和糖,那么他很有可能购买咖啡粉。这可以以关联规则的形式写成:{milk,sugar} - >咖啡粉。关联规则是在支持度和置信度相交的阈值之后产生的。

图5:关联规则X> Y的支持度、置信度和lift公式

支持方法有助于修剪在频繁项集生成期间需要考虑的候选项集的数量。这种支持措施以Apriori原则为指导。Apriori原则指出,如果一个项目集是频繁的,那么它的所有子集也必须是频繁的。

  1. K-means

K-means是一个迭代算法,将类似的数据分组成簇。它计算k个簇的质心,并将一个数据点分配给具有最小距离的质心与数据点之间的数据点。

图6:K-means算法的步骤

步骤1:k-means初始化:

选择一个k值。在这里,我们取k = 3。
将每个数据点随机分配给3个集群中的任何一个。
计算每个集群的集群中心。红色、蓝色和绿色的星星表示3个簇中每一个的质心。

步骤2:将每个观察结果与集群相关联:

将每个点重新分配到最近的聚类质心。在这里,上面5个点被分配到具有蓝色质心的群集。 按照相同的步骤将点分配给包含红色和绿色颜色质心的聚类。

步骤3:重新计算质心:

计算新集群的质心。旧的质心由灰色星星显示,而新的质心是红色、绿色和蓝色的星星。

步骤4:迭代,如果不变,然后退出。

重复步骤2-3,直到没有从一个集群到另一个集群的点切换。一旦没有连续两个步骤的切换,退出k-means算法。

  1. PCA

主成分分析(PCA)用于通过减少变量的数量使数据易于探索和可视化。这是通过将数据中的最大方差捕获到具有称为“主成分”的轴的新坐标系中完成的。每个分量是原始变量的线性组合,并且彼此正交。成分之间的正交性表明这些成分之间的相关性为零。

第一个主成分捕获数据中最大变化的方向。第二个主成分捕获数据中的剩余方差,但具有与第一个成分不相关的变量。类似地,所有连续的主成分(PC3、PC4等)捕获剩余方差,而与先前的成分不相关。

图7:3个原始变量(基因)减少到称为主成分(PC)的2个新变量

集成学习技术

组合意味着通过投票或平均,结合多个学习器(分类器)的结果以改善结果。分类期间使用投票,回归期间使用平均。学习器的整体表现优于单一学习器。

有三种类型的集成算法:Bagging、Boosting和Stacking。我们不会陈述“Stacking”,但如果你想要详细解释,我可以单独为其写一篇博客。

  1. 随机森林Bagging

随机森林(多学习其)是对bagged决策树(单一学习器)的改进。

Bagging:Bagging的第一步是创建使用Bootstrap采样方法创建的数据集的多个模型。在Bootstrap采样中,每个生成的训练集由原始数据集的随机子样本组成。这些训练过程与原始数据集大小相同,但有些记录重复多次,有些记录根本不显示。然后,将整个原始数据集用作测试集。因此,如果原始数据集的大小为N,则每个生成的训练样本集的大小也为N,唯一记录的数量约为(2N / 3);测试集的大小也是N。

Bagging的第二步是通过在不同的生成的训练集上使用相同的算法,创建多个模型。在这种情况下,我们来讨论随机森林。与决策树不同,每个节点在最小化误差的最佳特征上分割,在随机森林中,我们选择随机选择的特征构建最佳分割。随机性的原因是:即使有bagging,当决策树选择最佳分割特征时,它们最终具有相似的结构和相关的预测。但是,在特征的随机子集上分割后的bagging,意味着来自子树的预测之间的相关性较小。

在每个分割点处要搜索的要素的数量被指定为随机森林算法的参数。

因此,在随机森林bagging时,使用随机记录样本构建每个树,并且使用随机的预测因子样本构建每个分割。

  1. AdaBoost

a)bagging是一个并行集成学习,因为每个模型是独立构建的。另一方面,boosting是一个顺序集成学习,其中每个模型都是基于修正先前模型的错误分类而构建的。

b)bagging主要涉及“简单投票”,其中每个分类器投票获得最终结果——一个由大多数并行模型确定的结果;boosting涉及“加权投票”,其中每个分类者投票以获得由多数确定的最终结果,但是通过为先前模型的错误分类实例分配更大的权重以构建顺序模型。

Adaboost代表Adaptive Boosting。

图8:决策树的Adaboost

在图8中,步骤1、2和3涉及一个称为决策树桩的弱学习器(一级决策树,其基于仅一个输入特征的值进行预测;决策树的根立即连接到其叶)。构建弱势学习器的过程一直持续到用户定义数量较弱的学习器已经建成,或直到训练没有进一步改善。步骤4组合了先前模型的3个决策树(因此在决策树中有3个分割规则)。

步骤1:从1个决策树开始,对1个输入变量做出决定:

数据点的大小表明,我们已经应用了相等的权重,将它们分类为圆形或三角形。决策树桩在上半部分产生了一条水平线,以对这些点进行分类。我们可以看到有两个圆圈被错误地预测为三角形。因此,我们将赋予这两个圈子更高的权重,并应用另一个决策树桩。

步骤2:移动到另一个决策树树桩以对另一个输入变量做出决定:

我们观察到,上一步中2个错误分类的圆的大小大于其余的点。现在,第二个决定树桩将尝试正确地预测这两个圆圈。

由于分配较高的权重,这两个圆已经被左侧的垂直线正确分类。但是这个现在已经导致了顶部的3个圆圈错误分类。因此,我们将在顶部的这3个圆圈中分配较高的权重,并应用另一个决策树桩。

步骤3:训练另一个决策树桩,作出另一个输入变量的决策:

上一步中的3个错误分类的圆圈比其余的数据点大。现在,已经生成了右侧的垂直线,以对圆和三角形进行分类。

步骤4:结合决策树:

我们结合了前面3个模型的分割器,并观察到,与任何单个弱势学习器相比,该模型的复杂规则正确地分类了数据点。

结论

总结一下,我们学到了:

5种监督学习技术——线性回归、Logistic回归、CART、朴素贝叶斯、KNN
3种无监督学习技术——Apriori、K-means、PCA
2种集成学习技术——随机森林bagging、Adaboost
我们向初学者介绍十大机器学习(ML)算法,并附上数字和示例,方便理解。

简介

“哈佛商业评论”的一篇文章(https://hbr.org/2012/10/data-scientist-the-sexiest-job-of-the-21st-century)将“数据科学家”评为“21世纪最性感的工作”,对机器学习算法的研究取得了巨大的关注。因此,对于那些机器学习领域的初学者,我们决定重新撰写2016年的一篇金牌博客——机器学习工程师必须要知道的十大算法(https://www.kdnuggets.com/2016/08/10-algorithms-machine-learning-engineers.html)。

机器学习算法是能够从数据中学习和从经验中改进而不需要人为干预的算法。学习任务包括学习将输入映射到输出的函数,学习未标记数据中的隐藏结构或“基于实例的学习”,其中通过将新实例与存储在存储器中的训练数据的实例进行比较,为新实例生成类标签。“基于实例的学习”不会从具体实例中创建抽象。

机器学习算法的类型

机器学习算法有三种:

监督学习:监督学习可以解释如下:

使用标示的训练数据从输入变量(x)到输出变量(y)学习映射函数。

Y = f(x)

监督学习问题有两种:

a分类:预测给定样本的结果,其中输出变量是类别。举例来说,比如男性还是女性、病态还是健康等标签。

b回归:预测输出变量为实值形式的给定样本的结果。举例来说,比如表示降雨量、一个人的身高等实际值的标签。

我们在本博客中讨论的前5种算法——线性回归、Logistic回归、CART(分类回归树)、朴素贝叶斯、KNN(K临近算法),他们都是监督学习的例子。

集成(Ensembling)是一种监督学习。这意味着结合多个不同的弱机器学习模型的预测来预测新的样本。

无监督学习:

无监督学习问题仅具有输入变量(x),但没有相应的输出变量。它使用未标记的训练数据来模拟数据的底层结构。

无监督的学习问题有两种:

A关联:发现集合中同现的概率。广泛应用于购物篮分析。示例:如果客户购买面包,他有80%可能也会购买鸡蛋。

B聚类:分组样本,使得同一群集中的对象彼此之间比来自另一个群集的对象更相似。

C降维:就其名称而言,Dimensionality Reduction(减少维度)意味着减少数据集的变量数量,同时确保重要的信息仍然被传达。使用特征提取方法和特征选择方法可以进行降维。特征选择选择原始变量的一个子集。特征提取执行从高维空间到低维空间的数据变换。示例:PCA算法(主成分分析算法)是一种特征提取方法。

我们在这里介绍的算法6-8——Apriori、K-means、PCA(主成分分析算法)都是无监督学习的例子。

强化学习:

强化学习是一种机器学习算法,允许智能体通过学习最大化奖励的行为来决定基于其当前状态的最佳下一个动作。

强化算法通常通过尝试和失误来学习最佳动作。它们通常用于机器人技术——机器人可以通过在碰撞障碍物之后接收负反馈而学习避免碰撞,而在视频游戏中可以通过尝试和错误揭示特定的动作,从而可以激发奖励。然后,智能体可以使用这些奖励了解游戏的最佳状态,并选择下一个动作。

量化机器学习算法的流行度

有人做过一些调查报告(http://www.cs.uvm.edu/~icdm/algorithms/10Algorithms-08.pdf),量化了10种最流行的数据挖掘算法。然而,这样的列表是主观的,就引用的论文而言,被调查参与者的样本规模非常窄,都是数据挖掘的高级从业人员。被调查者包括ACM KDD创新奖、IEEE ICDM研究贡献奖的获奖者,KDD-06、ICDM‘06和SDM‘06的计划委员会成员和ICDM‘06的145位与会者。

本博客中的十大算法适用于初学者,主要是我在计算机工程学士学位期间从“数据存储与挖掘”(DWM)课程中学到的。DWM课程是机器学习算法领域的一个很好的介绍。基于Kaggle比赛的流行度,我特别涵盖了最后2个算法(集成方法)。希望你喜欢这篇文章!

监督学习算法

  1. 线性回归

在机器学习中,我们有一组用于确定输出变量(y)的输入变量(x)。输入变量和输出变量之间存在关系。机器学习的目标是量化这种关系。

图1:线性回归以y = ax + b的形式表示为一条直线

在线性回归中,输入变量(x)和输出变量(y)之间的关系表示为y = ax + b形式的等式。因此,线性回归的目标是找出系数a和b的值。这里,a是截距,b是线的斜率。

图1显示了数据集的x和y值。目标是找到匹配最接近大多数点的线。这将减少数据点的y值和行之间的距离(error)。

  1. Logistic回归

线性回归预测是连续值(比如以cm为单位的降水),Logistic回归预测是应用变换函数后的离散值(比如学生是否考过/挂科)。

Logistic回归最适合于二进制分类(y = 0或1,其中1表示默认类)的数据集。示例:在预测事件是否发生时,其发生的事件被分类为1;在预测是否病人不生病,病例均为1。它以其中使用的转换函数命名,称为Logistic函数h(x)= 1 /(1 + e ^ x),它是一个S形曲线。

在Logistic回归中,输出是默认类的概率的形式(与直接生成输出的线性回归不同)。因为这是一个概率,输出在0-1的范围内。使用逻辑函数h(x)= 1/(1 + e ^ -x)通过log变换x值来生成输出(y值)。然后应用阈值将该概率强制为二进制分类。

图2:用于确定肿瘤是恶性还是良性的Logistic回归。如果概率h(x)> 0.5,则分类为恶性。

在图2中,为了确定肿瘤是否恶性,默认变量为y = 1(肿瘤=恶性)。x变量可以是肿瘤的测量,例如肿瘤的大小。如图所示,Logistic函数将数据集的各种实例的x值转换为0到1的范围。如果概率超过阈值0.5(由水平线表示),则将肿瘤分类作为恶性。

Logistic回归方程P(x)= e ^(b0 + b1 x)/(1 + e ^(b0 + b1 x))可以转换为ln(p(x)/1-p(x) = b0 + b1*x。

Logistic回归的目标是使用训练数据来找到系数b0和b1的值,以便将预测结果与实际结果之间的误差最小化。使用最大似然估计技术来估计这些系数。

  1. CART(分类和回归树)

分类和回归树(CART)是一种决策树的实现方法。

非终端节点是根节点和内部节点。终端节点是叶节点。每个非终端节点表示单个输入变量(x)和该变量上的分割点;叶节点表示输出变量(y)。使用以下模型进行预测:沿着树的分割走,到达叶节点并输出叶节点上存在的值。

图3中的决策树根据年龄和婚姻状况分类是否会购买跑车或小型货车。如果这个人已经超过30岁,没有结婚,我们就像下面这样沿着树走:“30多岁吗?”- >是->结婚了吗?最后,该模型输出结果是一辆跑车。

  1. 朴素贝叶斯

为了计算事件发生的概率,给定另一个事件已经发生,我们使用贝叶斯定理。为了计算给定某个变量值的结果的概率,也就是计算假设(h)为真的概率,给定了我们的先验知识(d),我们使用贝叶斯定理如下:

P(h|d)=(P(d|h)*P(h))/P(d)

其中
P(h|d)=后验概率。给定数据d,假设h的概率为真,其中P(h|d)= P(d1|h) P(d2|h) .... P(dn| h) P)
P(d|h)=似然。给定假设h为真的数据d的概率
P(h)=等级先验概率。假设h的概率为真(不考虑数据)
P(d)=预测先验概率。数据的概率(不论假设如何)

这个算法被称为“朴素(naive)”,因为它假设所有的变量是相互独立的,这是在现实世界中做出的一个天真(naive)的假设。

图4:使用朴素贝叶斯预测使用变量“天气”的“游玩”状态。

以图4为例,如果weather =‘sunny‘,结果如何?

考虑到变量weather =‘sunny‘的值,确定结果play =‘yes‘或‘no‘,计算P(yes|sunny)和P(no|sunny),并以较高的概率选择结果。

  • > P(yes|sunny)=(P(sunny|yes) P(yes))/ P(sunny)
    =(3/9
    9/14)/(5/14)
    = 0.60
  • > P(no|sunny)=(P(sunny|no) P(no))/ P(sunny)
    =(2/5
    5/14)/(5/14)
    = 0.40

因此,如果天气=“阳光明媚”,结果是游玩=“是”。

  1. KNN

k近邻算法使用整个数据集作为训练集,而不是将数据集分为训练集和测试集。

当新数据实例需要结果时,KNN算法遍历整个数据集,以找到新实例的k个最近实例,或与新记录最相似的k个实例,然后输出分类问题的结果(回归问题)或模式(最常见的类)。k的值是用户指定的。

实例之间的相似性使用诸如欧氏距离和汉明距离之类的度量来计算。

  1. Apriori

Apriori算法在事务数据库中用于挖掘频繁项集,然后生成关联规则。它广泛用于购物篮分析,用于检查数据库中经常共存的产品的组合。一般来说,我们编写关联规则为:如果一个人购买物品X,那么他将物品Y,写作:X - > Y.

示例:如果一个人购买牛奶和糖,那么他很有可能购买咖啡粉。这可以以关联规则的形式写成:{milk,sugar} - >咖啡粉。关联规则是在支持度和置信度相交的阈值之后产生的。

图5:关联规则X> Y的支持度、置信度和lift公式

支持方法有助于修剪在频繁项集生成期间需要考虑的候选项集的数量。这种支持措施以Apriori原则为指导。Apriori原则指出,如果一个项目集是频繁的,那么它的所有子集也必须是频繁的。

  1. K-means

K-means是一个迭代算法,将类似的数据分组成簇。它计算k个簇的质心,并将一个数据点分配给具有最小距离的质心与数据点之间的数据点。

图6:K-means算法的步骤

步骤1:k-means初始化:

选择一个k值。在这里,我们取k = 3。
将每个数据点随机分配给3个集群中的任何一个。
计算每个集群的集群中心。红色、蓝色和绿色的星星表示3个簇中每一个的质心。

步骤2:将每个观察结果与集群相关联:

将每个点重新分配到最近的聚类质心。在这里,上面5个点被分配到具有蓝色质心的群集。 按照相同的步骤将点分配给包含红色和绿色颜色质心的聚类。

步骤3:重新计算质心:

计算新集群的质心。旧的质心由灰色星星显示,而新的质心是红色、绿色和蓝色的星星。

步骤4:迭代,如果不变,然后退出。

重复步骤2-3,直到没有从一个集群到另一个集群的点切换。一旦没有连续两个步骤的切换,退出k-means算法。

  1. PCA

主成分分析(PCA)用于通过减少变量的数量使数据易于探索和可视化。这是通过将数据中的最大方差捕获到具有称为“主成分”的轴的新坐标系中完成的。每个分量是原始变量的线性组合,并且彼此正交。成分之间的正交性表明这些成分之间的相关性为零。

第一个主成分捕获数据中最大变化的方向。第二个主成分捕获数据中的剩余方差,但具有与第一个成分不相关的变量。类似地,所有连续的主成分(PC3、PC4等)捕获剩余方差,而与先前的成分不相关。

图7:3个原始变量(基因)减少到称为主成分(PC)的2个新变量

集成学习技术

组合意味着通过投票或平均,结合多个学习器(分类器)的结果以改善结果。分类期间使用投票,回归期间使用平均。学习器的整体表现优于单一学习器。

有三种类型的集成算法:Bagging、Boosting和Stacking。我们不会陈述“Stacking”,但如果你想要详细解释,我可以单独为其写一篇博客。

  1. 随机森林Bagging

随机森林(多学习其)是对bagged决策树(单一学习器)的改进。

Bagging:Bagging的第一步是创建使用Bootstrap采样方法创建的数据集的多个模型。在Bootstrap采样中,每个生成的训练集由原始数据集的随机子样本组成。这些训练过程与原始数据集大小相同,但有些记录重复多次,有些记录根本不显示。然后,将整个原始数据集用作测试集。因此,如果原始数据集的大小为N,则每个生成的训练样本集的大小也为N,唯一记录的数量约为(2N / 3);测试集的大小也是N。

Bagging的第二步是通过在不同的生成的训练集上使用相同的算法,创建多个模型。在这种情况下,我们来讨论随机森林。与决策树不同,每个节点在最小化误差的最佳特征上分割,在随机森林中,我们选择随机选择的特征构建最佳分割。随机性的原因是:即使有bagging,当决策树选择最佳分割特征时,它们最终具有相似的结构和相关的预测。但是,在特征的随机子集上分割后的bagging,意味着来自子树的预测之间的相关性较小。

在每个分割点处要搜索的要素的数量被指定为随机森林算法的参数。

因此,在随机森林bagging时,使用随机记录样本构建每个树,并且使用随机的预测因子样本构建每个分割。

  1. AdaBoost

a)bagging是一个并行集成学习,因为每个模型是独立构建的。另一方面,boosting是一个顺序集成学习,其中每个模型都是基于修正先前模型的错误分类而构建的。

b)bagging主要涉及“简单投票”,其中每个分类器投票获得最终结果——一个由大多数并行模型确定的结果;boosting涉及“加权投票”,其中每个分类者投票以获得由多数确定的最终结果,但是通过为先前模型的错误分类实例分配更大的权重以构建顺序模型。

Adaboost代表Adaptive Boosting。

图8:决策树的Adaboost

在图8中,步骤1、2和3涉及一个称为决策树桩的弱学习器(一级决策树,其基于仅一个输入特征的值进行预测;决策树的根立即连接到其叶)。构建弱势学习器的过程一直持续到用户定义数量较弱的学习器已经建成,或直到训练没有进一步改善。步骤4组合了先前模型的3个决策树(因此在决策树中有3个分割规则)。

步骤1:从1个决策树开始,对1个输入变量做出决定:

数据点的大小表明,我们已经应用了相等的权重,将它们分类为圆形或三角形。决策树桩在上半部分产生了一条水平线,以对这些点进行分类。我们可以看到有两个圆圈被错误地预测为三角形。因此,我们将赋予这两个圈子更高的权重,并应用另一个决策树桩。

步骤2:移动到另一个决策树树桩以对另一个输入变量做出决定:

我们观察到,上一步中2个错误分类的圆的大小大于其余的点。现在,第二个决定树桩将尝试正确地预测这两个圆圈。

由于分配较高的权重,这两个圆已经被左侧的垂直线正确分类。但是这个现在已经导致了顶部的3个圆圈错误分类。因此,我们将在顶部的这3个圆圈中分配较高的权重,并应用另一个决策树桩。

步骤3:训练另一个决策树桩,作出另一个输入变量的决策:

上一步中的3个错误分类的圆圈比其余的数据点大。现在,已经生成了右侧的垂直线,以对圆和三角形进行分类。

步骤4:结合决策树:

我们结合了前面3个模型的分割器,并观察到,与任何单个弱势学习器相比,该模型的复杂规则正确地分类了数据点。

结论

总结一下,我们学到了:

5种监督学习技术——线性回归、Logistic回归、CART、朴素贝叶斯、KNN
3种无监督学习技术——Apriori、K-means、PCA
2种集成学习技术——随机森林bagging、Adaboost

原文地址:http://blog.51cto.com/13952112/2170644

时间: 2024-10-05 23:26:53

(楚才国科)最新机器学习必备十大入门算法!的相关文章

楚才国科携手格凡软件CEO尹俊文:让数据更加安全,与安全共创价值

楚才国科致力于为中国智能制造企业提供人才支撑,并与湖南本土著名影视工作室"非繁影像"达成全面战略合作伙伴关系,共同打造一档零距离接触人工智能企业和领军人物的访谈栏目<走进未来之大咖驾到> "非繁影像"是著名作家.湖南卫视导演.编剧.策划人龙静婉女士为主理人的影视工作站,参与制作了"爸爸去哪儿"."花儿与少年"."变形计"."快乐女声"等多档热门节目.<大咖驾到>这

人工智能时代,人类会被秒杀?(楚才国科)

人工智能像一把利刃,将时代劈斩为泾渭分明的两个板块:在人工智能到来之前,世界上的一切循规蹈矩,有序进行:人工智能到来之后,未来势必是一个大变革的时代,所有的秩序和契约都会被重新撰写. 自从深度学习发明以来,越来越多的人工智能算法和设想进入到我们的生活之中,大幅度提升了我们工作与生活的效率.   但人工智能给我们带来的并不仅仅是巨大的财富和高效的生产力,同时还可能带来巨大的破坏,甚至可能导致严重的社会撕裂:人工智能的四波浪潮已经改变了世界,即将对全球经济展开前所未有的冲击. 人工智能对于商业来说是

开源深度学习框架(楚才国科)

周早些时候Google开源了TensorFlow(GitHub),此举在深度学习领域影响巨大,因为Google在人工智能领域的研发成绩斐然,有着雄厚的人才储备,而且Google自己的Gmail和搜索引擎都在使用自行研发的深度学习工具. 无疑,来自Google军火库的TensorFlow必然是开源深度学习软件中的明星产品,登陆GitHub当天就成为最受关注的项目,当周获得评星数就轻松超过1万个. 对于希望在应用中整合深度学习功能的开发者来说,GitHub上其实还有很多不错的开源项目值得关注,首先我

轻松看懂机器学习十大常用算法

轻松看懂机器学习十大常用算法 通过本篇文章可以对ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的,例子主要是分类问题. 每个算法都看了好几个视频,挑出讲的最清晰明了有趣的,便于科普. 以后有时间再对单个算法做深入地解析. 今天的算法如下: 决策树 随机森林算法 逻辑回归 SVM 朴素贝叶斯 K最近邻算法 K均值算法 Adaboost 算法 神经网络 马尔可夫 1. 决策树 根据一些 feature 进行分类,每个节点提一个问题,通过

机器学习十大常用算法

机器学习十大常用算法小结 机器学习十大常用算法小结 通过本篇文章可以对ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的,例子主要是分类问题. 每个算法都看了好几个视频,挑出讲的最清晰明了有趣的,便于科普.以后有时间再对单个算法做深入地解析. 今天的算法如下: 决策树 随机森林算法 逻辑回归 SVM 朴素贝叶斯 K最近邻算法 K均值算法 Adaboost 算法 神经网络 马尔可夫 1. 决策树 根据一些 feature 进行分类,每个

机器学习与数据挖掘中的十大经典算法

背景: top10算法的前期背景是吴教授在香港做了一个关于数据挖掘top10挑战的一个报告,会后有一名内地的教授提出了一个类似的想法.吴教授觉得非常好,开始着手解决这个事情.找了一系列的大牛(都是数据挖掘的大牛),都觉得想法很好,但是都不愿自己干.原因估计有一下几种:1.确实很忙2.得罪人3.一系列工作很繁琐等等.最后和明尼苏达大学的Vipin Kumar教授一起把这件事情承担下来.先是请数据挖掘领域获过kdd和icdm大奖的十四个牛人提名候选,其中一人因为确实很忙,正从ibm转行到微软,吴教授

Linux开发环境必备十大开发工具

原文链接Linux是一个优秀的开发环境,但是如果没有好的开发工具作为武器,这个环境给你带来的好处就会大打折扣.幸运的是,有很多好用的Linux和开源开发工具供你选择,如果你是一个新手,你可能不知道有哪些工具可用.本文将介绍其中十个杰出的开源开发工具,它们将帮助你提升自己的开发效率. 1.Bluefish Bluefish是进行Web开发时最受欢迎的IDE之一.它能够处理编程和标记语言,但是该工具的重点用途在于创建动态和交互式网站.和许多 Linux应用程序一样,Bluefish是一个轻量级工具,

优秀程序员必备十大习惯

想成为一个优秀的软件开发人员,在今天,你该怎样发展你的职业生涯?这个是我总结的优秀程序员必备十大习惯.按照这些技巧和规则,你可以改善你的现状,由一个普通的程序员,成为一名优秀的程序员. 学会学习 作为开发者,就算是你有了3-5年的工作经验,你还是需要不断地学习,因为你在计算机这个充满创造力的领域,每天都会有很多很多的新事物出现,你需要跟上时代的步伐.你需要去接触新的程序语言,了解正在发展中的程序语言,以及一些编程框架.还需要去阅读一些业内的新闻,并到一些热门的社区去参与在线的讨论,这样你才能明白

Java开发者必备十大学习网站

作为开发者来说,必备的除了对编码的热情还要有自己的一套技巧,另外不可缺少的就是平时学习的网站.以下本人收集的Java开发者必备的网站,这些网站可以提供信息,以及一些很棒的讲座, 还能解答一般问题.面试问题等,或许你会认为有些网站适合任何水平的开发者,但是我认为:对于Java开发大牛来说,网站的好坏取决于如何使用它们. Stack overflow Stack overflow.com 可能是编程界中最流行的网站了, 是一个与程序相关的IT技术问答网站,用户可以在网站免费提交问题,浏览问题,索引相