基于结构的距离度量

基于结构的距离度量是找出序列的在较高尺度上的结构,并在全局尺度上进行比较。基于结构的距离度量又可以进一步分成两种:基于模型(model-based)的距离度量和基于压缩(compression-based)的距离度量。
基于模型的距离度量是先对每个待比较的时间序列分别构建各自的全局模型,建好各自的模型后,基于某个序列的模型来尝试生成另一条序列,结果只有两个:能生成和不能生成,
把这种可能生成的概率值作为序列之间相似性的度量。典型的代表方法为基于隐Markov模型HMM(Hidden MarkovModel)和基于自回归平均移动模型 AMRA(Auto RessionMoveing Average)(Xiong and Yeung, 2004)。基于模型的方法的不足之处在于需要预先定义数据满足某种假设,如果不满足,就很难建立较好的模型。基于压缩的距离度量代表方法是CDM(compression-based DissimilarityMeasure),它结合了生物信息学和压縮理论的成果,适用于子序列相似性的度量和发现。但是由于CDM中Lemple-ziv复杂性的计算复杂度为0(n2),计算过程非常复杂和耗时,存在很多参数需要给予正确合理设置,所以限制了它的应用。

原文地址:https://www.cnblogs.com/wdmx/p/9211273.html

时间: 2024-10-09 17:45:04

基于结构的距离度量的相关文章

从K近邻算法、距离度量谈到KD树、SIFT+BBF算法

从K近邻算法.距离度量谈到KD树.SIFT+BBF算法 从K近邻算法.距离度量谈到KD树.SIFT+BBF算法 前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1.KD树:2.神经网络:3.编程艺术第28章.你看到,blog内的文章与你于别处所见的任何都不同.于是,等啊等,等一台电脑,只好等待..”.得益于田,借了我一台电脑(借他电脑的时候,我连表示感谢,他说“能找到工作全靠你的博客,这点儿小忙还说,不地道”,有的时候,稍许感受到受人信任也是一种压力,愿我不辜负大家对我的信任)

概率分布之间的距离度量以及python实现

1. 欧氏距离(Euclidean Distance)       欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式.(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:(3)两个n维向量a(x11,x12,-,x1n)与 b(x21,x22,-,x2n)间的欧氏距离:(4)也可以用表示成向量运算的形式: python中的实现: 方法一: import numpy as np x=

ML 07、机器学习中的距离度量

机器学习算法 原理.实现与实践 —— 距离的度量 声明:本篇文章内容大部分转载于July于CSDN的文章:从K近邻算法.距离度量谈到KD树.SIFT+BBF算法,对内容格式与公式进行了重新整理.同时,文章中会有一些对知识点的个人理解和归纳补充,不代表原文章作者的意图. 1. 欧氏距离 欧氏距离是最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 $x = (x_1,\cdots,x_n)$ 和$y = (y_2,\cdots,y_n)$之间的距离为: $$

【Matlab开发】matlab中bar绘图设置与各种距离度量

[Matlab开发]matlab中bar绘图设置与各种距离度量 标签(空格分隔): [Matlab开发] [机器学习] 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ Matlab Bar图如何为每个bar设置不同颜色 data = [3, 7, 5, 2;4, 3, 2, 9;6, 6, 1, 4]; b = bar(data); 使用bar绘制非常直观简单,但有时需要突出显示某一个bar,比如该bar是一个标杆,用来衡量其bar的高度,所以可以用醒目

机器学习中的距离度量

在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance).采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否. 本文的目的就是对常用的相似性度量作一个总结. 本文目录: 1. 欧氏距离 2. 曼哈顿距离 3. 切比雪夫距离 4. 闵可夫斯基距离 5. 标准化欧氏距离 6. 马氏距离 7. 夹角余弦 8. 汉明距离 9. 杰卡德距离 & 杰卡德相似系数 10. 相关系数 & 相关距离

《软件测试设计》第2章——基于结构的测试

概念:又称白盒测试,是基于测试对象的代码.数据或者系统架构而进行测试的一种技术 关注测试对象的内部结构 基于结构的测试技术的共同特点为: ① 测试对象的内部结构信息是设计测试用例的依据,如程序代码和设计架构 ② 测试对象的覆盖率可通过已有的测试用例测量,并且可系统地增加测试用例来提高覆盖率 要求:测试人员需详细了解测试对象的内部结构 步骤: ① 分析测试对象的具体实现和内部结构 ② 识别测试对象的不同路径(选择合适的代码覆盖标准,如语句覆盖) ③ 选择合适的输入数据覆盖测试对象的相关路径并确定期

距离度量学习

为什么学习距离度量? 在机器学习中,对高维数据进行降维的主要目的是希望找到一个合适的低维空间,在此空间中进行学习能比原始空间性能更好.事实上,每个空间对应了在样本属性上定义的一个距离度量,而寻找合适的空间,实质上就是在寻找一个合适的距离度量.那么,为何不直接尝试" 学习" 出一个合适的距离度量呢?这就是度量学习(metric learning)的基本动机. 扩展 度量学习的目的是在样本上学习距离度量函数. 距离度量函数必须服从4个公理非负性,对称性,次可加性及不可分与同一性.在实践中,

距离度量以及python实现(一)

转自: https://www.cnblogs.com/denny402/p/7027954.html 1. 欧氏距离(Euclidean Distance)       欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式.(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:(3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离:(4)也可

概率分布之间的距离度量以及python实现(四)

1.f 散度(f-divergence) KL-divergence 的坏处在于它是无界的.事实上KL-divergence 属于更广泛的 f-divergence 中的一种. 如果P和Q被定义成空间中的两个概率分布,则f散度被定义为: 一些通用的散度,如KL-divergence, Hellinger distance, 和total variation distance,都是f散度的一种特例.只是f函数的取值不同而也. 在python中的实现 : import numpy as np imp