无监督算法

无监督算法:

KMeans算法:

1、 随机初始化数据集簇的中心,一般从数据集中选择

2、 外循环:

内循环:计算各个数值点到中心的距离,进行聚类

计算每个聚类的平局值,移动聚类中心

PCA算法:

目标:数据压缩和可视化

1、 对样本数据进行去均值和归一化

2、 组建sigma矩阵,然后进行奇异值分解,求的压缩和的结果Z

异常检测算法:

1、 选择可能适应于异常样本的特征

2、 根据样本得到高斯分布的均值和方差

3、 对给定的样本计算其是否为异常样本

异常检测与监督学习:

异常检测:正样本数量较少(0-20);大量的负样本

不同类型的正样本,很难从正样本中学的算法将其识别出来

未来会出现之前从未出现过的正样本,与当前的正样本无相似性

监督学习:有大量的正样本和负样本;

足够的样本支撑可以从中学到正样本的特征的检测算法

未来很难出现正样本中未出现过的样本

常见的异常检测和监督学习:

异常检测:欺诈行为/制造业/数据中心的监测

监督学习:垃圾邮件/天气/癌症

原文地址:https://www.cnblogs.com/abella/p/10348320.html

时间: 2024-10-13 15:22:48

无监督算法的相关文章

【转载】 无监督特征学习——Unsupervised feature learning and deep learning

无监督特征学习——Unsupervised feature learning and deep learning 分类: Compression Computer Vision Machine Learning 杂感2012-07-31 15:48 36848人阅读 评论(61) 收藏 举报 目录(?)[+] 无监督学习近年来很热,先后应用于computer vision, audio classification和 NLP等问题,通过机器进行无监督学习feature得到的结果,其accurac

转:Deep learning系列(十五)有监督和无监督训练

http://m.blog.csdn.net/article/details?id=49591213 1. 前言 在学习深度学习的过程中,主要参考了四份资料: 台湾大学的机器学习技法公开课: Andrew NG的深度学习教程: Li feifei的CNN教程: caffe官网的教程: 对比过这几份资料,突然间产生一个困惑:台大和Andrew的教程中用了很大的篇幅介绍了无监督的自编码神经网络,但在Li feifei的教程和caffe的实现中几乎没有涉及.当时一直搞不清这种现象的原因,直到翻阅了深度

【转】有监督训练 & 无监督训练

原文链接:http://m.blog.csdn.net/article/details?id=49591213 1. 前言 在学习深度学习的过程中,主要参考了四份资料: 台湾大学的机器学习技法公开课: Andrew NG的深度学习教程: Li feifei的CNN教程: caffe官网的教程: 对比过这几份资料,突然间产生一个困惑:台大和Andrew的教程中用了很大的篇幅介绍了无监督的自编码神经网络,但在Li feifei的教程和caffe的实现中几乎没有涉及.当时一直搞不清这种现象的原因,直到

【转-知乎】有监督 无监督 标签的解释,对我自己而言,比较容易懂(收藏)

作者:赵杨链接:https://www.zhihu.com/question/23194489/answer/75555668来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 机器(计算机)学习分为有监督和无监督两个类,基本上可以从他们会不会得到一个特定的标签(label)输出来区分.这里标签指的是用来描述某一个物体属性的话语.比如人类有两种,我们要区分这两种人,就根据生理特征,分别对两种人打上标签,一种是[男人],另一种是[女人].有监督学习(Supervised

深度学习之无监督训练

最近看了一下深度学习的表征学习,总结并记录与一下学习笔记. 1.在标签数据集中做的监督学习容易导致过拟合,半监督学习由于可以从无标签数据集中学习,可以有一定概率化解这种情况. 2.深度学习所使用的算法不能太复杂,否则会加大计算复杂度和工作量. 3.逐层贪婪的无监督预训练有这几个特点: (1)贪婪:基于贪婪算法,独立优化问题解的各方面,但是每次只优化一个方面,而不是同时同步全局优化. (2)逐层:各个独立方面可以看做网络的每一层,每次训练的第i层,都会固定前面的所有层. (3)无监督:每次训练都是

无监督学习算法-Apriori进行关联分析

关联分析 是无监督讯息算法中的一种,Apriori主要用来做_关联分析_,_关联分析_可以有两种形式:频繁项集或者关联规则.举个例子:交易订单 序号 商品名称 1 书籍,电脑 2 杯子,手机,手机壳,盘子 3 古筝,手机,手机壳,玻璃 4 手机,玻璃 5 电视,手机,手机壳 频繁项集:{ 古筝,手机,手机壳,玻璃}就是一个例子. 关联规则:手机->手机壳,买手机很大概率会买手机壳. 关联分析使用的思路 无论是频繁项集还是关联规则,都是需要看发生的频率,比如有手机就有手机壳的概率,如果这个比率超过

将句子表示为向量(上):无监督句子表示学习(sentence embedding)

1. 引言 word emedding技术如word2vec,glove等已经广泛应用于NLP,极大地推动了NLP的发展.既然词可以embedding,句子也应该可以(其实,万物皆可embedding,Embedding is All You Need ^_^).近年来(2014-2018),许多研究者在研究如何进行句子表示学习,从而获得质量较高的句子向量(sentence embedding).事实上,sentence embedding在信息检索,句子匹配,句子分类等任务上均有广泛应用,并且

itorch无监督聚类

cmd = torch.CmdLine() cmd:text() cmd:text()用来在terminal上显示运行信息 cmd:option('-dir', 'outputs', 'subdirectory to save experiments in') cmd:option用来接受运行时的参数,第一个是参数名称,第二个是默认输入参数,第三个是备注. 1. 处理数据: dofile '1_data.lua' dofile和require的功能差不多,不过require不会重新加载,dofi

Android中dip(dp)与px之间单位转换 dip2px dp转px 无context算法(以及获取获取屏幕宽度和高度)

废话不多说直接上代码: 1.dip2px  dp转px  无context算法 public static int px2dip(int pxValue) { final float scale = Resources.getSystem().getDisplayMetrics().density; return (int) (pxValue / scale + 0.5f); } public static float dip2px(float dipValue) { final float s