最邻近规则分类

1. 综述

1.1 Cover和Hart在1968年提出了最初的邻近算法

1.2 分类(classification)算法

1.3 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning)

2. 例子:

未知电影属于什么类型?

3. 算法详述

3.1 步骤:

为了判断未知实例的类别,以所有已知类别的实例作为参照

选择参数K

计算未知实例与所有已知实例的距离

选择最近K个已知实例

根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别

3.2 细节:

关于K

关于距离的衡量方法:

3.2.1 Euclidean Distance 定义

其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)

3.3 举例

4. 算法优缺点:

4.1 算法优点

简单

易于理解

容易实现

通过对K的选择可具备丢噪音数据的健壮性

4.2 算法缺点

需要大量空间储存所有已知实例

算法复杂度高(需要比较所有已知实例与要分类的实例)

当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本

5. 改进版本

考虑距离,根据距离加上权重

比如: 1/d (d: 距离)

时间: 2024-10-13 19:57:55

最邻近规则分类的相关文章

kNN(K-Nearest Neighbor)最邻近规则分类

KNN最邻近规则,主要应用领域是对未知事物的识别,即判断未知事物属于哪一类,判断思想是,基于欧几里得定理,判断未知事物的特征和哪一类已知事物的的特征最接近: K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一.该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别.KNN算法中,所选择的邻居都是已经正确分类的对象.该方法在定类决策上只依据最邻近的一个或

kNN(K-Nearest Neighbor)最邻近规则分类(转)

KNN最邻近规则,主要应用领域是对未知事物的识别,即判断未知事物属于哪一类,判断思想是,基于欧几里得定理,判断未知事物的特征和哪一类已知事物的的特征最接近: K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一.该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别.KNN算法中,所选择的邻居都是已经正确分类的对象.该方法在定类决策上只依据最邻近的一个或

最邻近规则分类KNN算法

例子: 求未知电影属于什么类型: 算法介绍: 步骤:  为了判断未知实例的类别,以所有已知类别的实例作为参照      选择参数K      计算未知实例与所有已知实例的距离      选择最近K个已知实例      根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别 细节: 关于K的选择 关于距离的衡量方法: 其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance) 算法

最邻近规则分类(K-Nearest Neighbor)KNN算法

 自写代码: 1 # Author Chenglong Qian 2 3 from numpy import * #科学计算模块 4 import operator #运算符模块 5 6 def createDaraSet(): 7 group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])#创建4行2列的数组 8 labels=['A',"A",'B','B']#标签列表 9 return group,labels 10 11 group,lab

4.2 最邻近规则分类(K-Nearest Neighbor)KNN算法应用

1 数据集介绍: 虹膜 150个实例 萼片长度,萼片宽度,花瓣长度,花瓣宽度 (sepal length, sepal width, petal length and petal width) 类别: Iris setosa, Iris versicolor, Iris virginica. 2. 利用Python的机器学习库sklearn: SkLearnExample.py from sklearn import neighbors from sklearn import datasets

python_机器学习_最临近规则分类(K-Nearest Neighbor)KNN算法

1. 概念: https://scikit-learn.org/stable/modules/neighbors.html 1. Cover和Hart在1968年提出了最初的临近算法 2. 分类算法(classification) 3. 输入基于实例的学习(instance-based leaning).懒惰学习(lazy learning) 开始时候不广泛建立模型,在归类的时候才分类 2. 例子: 3. 算法详述 1. 步骤: 为了判断未知实例的类别,以所有已知类别的实例作为参照 选择参数K

机器学习三--分类--邻近取样(Nearest Neighbor)

最邻近规则分类 K-Nearest Neighbor 步骤: 1.为了判断未知实例的类别,以所有已知类别的实例作为参考. 2.选择参数K. 3.计算未知实例与所有已知实例的距离. 4.选择最近的K个已知实例. 5.根据少数服从多数,让未知实例归类为K个最邻近样本中最多数的类别. 优点:简单,易于理解,容易实现,通过对K的选择可具备丢噪音数据的强壮性. 缺点:1.需要大量空间存储所有已知实例.2.当样本分布不均衡时,比如其中一类样本实例数量过多,占主导的时候,新的未知实例很容易被归类这个主导样本.

KNN算法在保险业精准营销中的应用

版权所有,可以转载,禁止修改.转载请注明作者以及原文链接. 一.KNN算法概述 KNN是Machine Learning领域一个简单又实用的算法,与之前讨论过的算法主要存在两点不同: 它是一种非参方法.即不必像线性回归.逻辑回归等算法一样有固定格式的模型,也不需要去拟合参数. 它既可用于分类,又可应用于回归. KNN的基本思想有点类似“物以类聚,人以群分”,打个通俗的比方就是“如果你要了解一个人,可以从他最亲近的几个朋友去推测他是什么样的人”. 在分类领域,对于一个未知点,选取K个距离(可以是欧

深度学习基础阶段

IDH_1000=1.1 课程介绍 & 机器学习介绍.html ; Evernote ExportIDH_1001=1.2 深度学习(Deep Learning)介绍.html ; Evernote ExportIDH_1002=2 基本概念 (Basic Concepts).html ; Evernote ExportIDH_1003=3.1 决策树(decision tree)算法.html ; Evernote ExportIDH_1004=3.2 决策树(decision tree)应用