.NET下文本相似度算法余弦定理和SimHash浅析及应用

在数据采集及大数据处理的时候,数据排重、相似度计算是很重要的一个环节,由此引入相似度计算算法。常用的方法有几种:最长公共子串(基于词条空间)、最长公共子序列(基于权值空间、词条空间)、最少编辑距离法(基于词条空间)、汉明距离(基于权值空间)、余弦值(基于权值空间)等,今天我们着重介绍最后两种方式。

余弦相似性

原理:首先我们先把两段文本分词,列出来所有单词,其次我们计算每个词语的词频,最后把词语转换为向量,这样我们就只需要计算两个向量的相似程度.

我们简单表述如下

文本1:我/爱/北京/天安门/ 经过分词求词频得出向量(伪向量)  [1,1,1,1]

文本2:我们/都爱/北京/天安门/ 经过分词求词频得出向量(伪向量)  [1,0,1,2]

我们可以把它们想象成空间中的两条线段,都是从原点([0, 0, ...])出发,指向不同的方向。两条线段之间形成一个夹角,如果夹角为0度,意味着方向相同、线段重合;如果夹角为90度,意味着形成直角,方向完全不相似;如果夹角为180度,意味着方向正好相反。因此,我们可以通过夹角的大小,来判断向量的相似程度。夹角越小,就代表越相似。

C#核心算法

    public class TFIDFMeasure
    {
        private string[] _docs;
        private string[][] _ngramDoc;
        private int _numDocs=0;
        private int _numTerms=0;
        private ArrayList _terms;
        private int[][] _termFreq;
        private float[][] _termWeight;
        private int[] _maxTermFreq;
        private int[] _docFreq;

        public class TermVector
        {
            public static float ComputeCosineSimilarity(float[] vector1, float[] vector2)
            {
                if (vector1.Length != vector2.Length)
                    throw new Exception("DIFER LENGTH");

                float denom=(VectorLength(vector1) * VectorLength(vector2));
                if (denom == 0F)
                    return 0F;
                else
                    return (InnerProduct(vector1, vector2) / denom);

            }

            public static float InnerProduct(float[] vector1, float[] vector2)
            {

                if (vector1.Length != vector2.Length)
                    throw new Exception("DIFFER LENGTH ARE NOT ALLOWED");

                float result=0F;
                for (int i=0; i < vector1.Length; i++)
                    result += vector1[i] * vector2[i];

                return result;
            }

            public static float VectorLength(float[] vector)
            {
                float sum=0.0F;
                for (int i=0; i < vector.Length; i++)
                    sum=sum + (vector[i] * vector[i]);

                return (float)Math.Sqrt(sum);
            }

        }

        private IDictionary _wordsIndex=new Hashtable() ;

        public TFIDFMeasure(string[] documents)
        {
            _docs=documents;
            _numDocs=documents.Length ;
            MyInit();
        }

        private void GeneratNgramText()
        {

        }

        private ArrayList GenerateTerms(string[] docs)
        {
            ArrayList uniques=new ArrayList() ;
            _ngramDoc=new string[_numDocs][] ;
            for (int i=0; i < docs.Length ; i++)
            {
                Tokeniser tokenizer=new Tokeniser() ;
                string[] words=tokenizer.Partition(docs[i]);            

                for (int j=0; j < words.Length ; j++)
                    if (!uniques.Contains(words[j]) )
                        uniques.Add(words[j]) ;

            }
            return uniques;
        }

        private static object AddElement(IDictionary collection, object key, object newValue)
        {
            object element=collection[key];
            collection[key]=newValue;
            return element;
        }

        private int GetTermIndex(string term)
        {
            object index=_wordsIndex[term];
            if (index == null) return -1;
            return (int) index;
        }

        private void MyInit()
        {
            _terms=GenerateTerms (_docs );
            _numTerms=_terms.Count ;

            _maxTermFreq=new int[_numDocs] ;
            _docFreq=new int[_numTerms] ;
            _termFreq =new int[_numTerms][] ;
            _termWeight=new float[_numTerms][] ;

            for(int i=0; i < _terms.Count ; i++)
            {
                _termWeight[i]=new float[_numDocs] ;
                _termFreq[i]=new int[_numDocs] ;

                AddElement(_wordsIndex, _terms[i], i);
            }

            GenerateTermFrequency ();
            GenerateTermWeight();            

        }

        private float Log(float num)
        {
            return (float) Math.Log(num) ;//log2
        }

        private void GenerateTermFrequency()
        {
            for(int i=0; i < _numDocs  ; i++)
            {
                string curDoc=_docs[i];
                IDictionary freq=GetWordFrequency(curDoc);
                IDictionaryEnumerator enums=freq.GetEnumerator() ;
                _maxTermFreq[i]=int.MinValue ;
                while (enums.MoveNext())
                {
                    string word=(string)enums.Key;
                    int wordFreq=(int)enums.Value ;
                    int termIndex=GetTermIndex(word);

                    _termFreq [termIndex][i]=wordFreq;
                    _docFreq[termIndex] ++;

                    if (wordFreq > _maxTermFreq[i]) _maxTermFreq[i]=wordFreq;
                }
            }
        }

        private void GenerateTermWeight()
        {
            for(int i=0; i < _numTerms   ; i++)
            {
                for(int j=0; j < _numDocs ; j++)
                    _termWeight[i][j]=ComputeTermWeight (i, j);
            }
        }

        private float GetTermFrequency(int term, int doc)
        {
            int freq=_termFreq [term][doc];
            int maxfreq=_maxTermFreq[doc];            

            return ( (float) freq/(float)maxfreq );
        }

        private float GetInverseDocumentFrequency(int term)
        {
            int df=_docFreq[term];
            return Log((float) (_numDocs) / (float) df );
        }

        private float ComputeTermWeight(int term, int doc)
        {
            float tf=GetTermFrequency (term, doc);
            float idf=GetInverseDocumentFrequency(term);
            return tf * idf;
        }

        private  float[] GetTermVector(int doc)
        {
            float[] w=new float[_numTerms] ;
            for (int i=0; i < _numTerms; i++)
                w[i]=_termWeight[i][doc];

            return w;
        }

        public float GetSimilarity(int doc_i, int doc_j)
        {
            float[] vector1=GetTermVector (doc_i);
            float[] vector2=GetTermVector (doc_j);

            return TermVector.ComputeCosineSimilarity(vector1, vector2) ;

        }

        private IDictionary GetWordFrequency(string input)
        {
            string convertedInput=input.ToLower() ;

            Tokeniser tokenizer=new Tokeniser() ;
            String[] words=tokenizer.Partition(convertedInput);
            Array.Sort(words);

            String[] distinctWords=GetDistinctWords(words);

            IDictionary result=new Hashtable();
            for (int i=0; i < distinctWords.Length; i++)
            {
                object tmp;
                tmp=CountWords(distinctWords[i], words);
                result[distinctWords[i]]=tmp;

            }

            return result;
        }                

        private string[] GetDistinctWords(String[] input)
        {
            if (input == null)
                return new string[0];
            else
            {
                ArrayList list=new ArrayList() ;

                for (int i=0; i < input.Length; i++)
                    if (!list.Contains(input[i])) // N-GRAM SIMILARITY?
                        list.Add(input[i]);

                return Tokeniser.ArrayListToArray(list) ;
            }
        }

        private int CountWords(string word, string[] words)
        {
            int itemIdx=Array.BinarySearch(words, word);

            if (itemIdx > 0)
                while (itemIdx > 0 && words[itemIdx].Equals(word))
                    itemIdx--;                

            int count=0;
            while (itemIdx < words.Length && itemIdx >= 0)
            {
                if (words[itemIdx].Equals(word)) count++;                

                itemIdx++;
                if (itemIdx < words.Length)
                    if (!words[itemIdx].Equals(word)) break;                    

            }

            return count;
        }
    }

缺点

由于有可能一个文章的特征向量词特别多导致整个向量维度很高,使得计算的代价太大不适合大数据量的计算。

SimHash

原理

算法的主要思想是降维,将高维的特征向量映射成一个f-bit的指纹(fingerprint),通过比较两篇文章的f-bit指纹的Hamming Distance来确定文章是否重复或者高度近似。由于每篇文章我们都可以事先计算好Hamming Distance来保存,到时候直接通过Hamming Distance来计算,所以速度非常快适合大数据计算。

Google就是基于此算法实现网页文件查重的。我们假设有以下三段文本:

1,the cat sat on the mat

2,the cat sat on a mat

3,we all scream for ice cream

如何实现这种hash算法呢?以上述三个文本为例,整个过程可以分为以下六步:
1、选择simhash的位数,请综合考虑存储成本以及数据集的大小,比如说32位
2、将simhash的各位初始化为0
3、提取原始文本中的特征,一般采用各种分词的方式。比如对于"the cat sat on the mat",采用两两分词的方式得到如下结果:{"th", "he", "e ", " c", "ca", "at", "t ", " s", "sa", " o", "on", "n ", " t", " m", "ma"}
4、使用传统的32位hash函数计算各个word的hashcode,比如:"th".hash = -502157718
,"he".hash = -369049682,……
5、对各word的hashcode的每一位,如果该位为1,则simhash相应位的值加1;否则减1
6、对最后得到的32位的simhash,如果该位大于1,则设为1;否则设为0

流程图如下

按照Charikar在论文中阐述的,64位simhash,海明距离在3以内的文本都可以认为是近重复文本。当然,具体数值需要结合具体业务以及经验值来确定.

c#核心算法

 1 public class SimHashAnalyser : IAnalyser
 2     {
 3         #region Constants and Fields
 4
 5         private const int HashSize = 32;
 6
 7         #endregion
 8
 9         #region Public Methods and Operators
10
11         public float GetLikenessValue(string needle, string haystack)
12         {
13             var needleSimHash = this.DoCalculateSimHash(needle);
14             var hayStackSimHash = this.DoCalculateSimHash(haystack);
15             return (HashSize - GetHammingDistance(needleSimHash, hayStackSimHash)) / (float)HashSize;
16         }
17
18         #endregion
19
20         #region Methods
21
22         private static IEnumerable<int> DoHashTokens(IEnumerable<string> tokens)
23         {
24             var hashedTokens = new List<int>();
25             foreach (string token in tokens)
26             {
27                 hashedTokens.Add(token.GetHashCode());
28             }
29             return hashedTokens;
30         }
31
32         private static int GetHammingDistance(int firstValue, int secondValue)
33         {
34             var hammingBits = firstValue ^ secondValue;
35             var hammingValue = 0;
36             for (int i = 0; i < 32; i++)
37             {
38                 if (IsBitSet(hammingBits, i))
39                 {
40                     hammingValue += 1;
41                 }
42             }
43             return hammingValue;
44         }
45
46         private static bool IsBitSet(int b, int pos)
47         {
48             return (b & (1 << pos)) != 0;
49         }
50
51         private int DoCalculateSimHash(string input)
52         {
53             ITokeniser tokeniser = new OverlappingStringTokeniser(4, 3);
54             var hashedtokens = DoHashTokens(tokeniser.Tokenise(input));
55             var vector = new int[HashSize];
56             for (var i = 0; i < HashSize; i++)
57             {
58                 vector[i] = 0;
59             }
60
61             foreach (var value in hashedtokens)
62             {
63                 for (var j = 0; j < HashSize; j++)
64                 {
65                     if (IsBitSet(value, j))
66                     {
67                         vector[j] += 1;
68                     }
69                     else
70                     {
71                         vector[j] -= 1;
72                     }
73                 }
74             }
75
76             var fingerprint = 0;
77             for (var i = 0; i < HashSize; i++)
78             {
79                 if (vector[i] > 0)
80                 {
81                     fingerprint += 1 << i;
82                 }
83             }
84             return fingerprint;
85         }
86
87         #endregion
88     }

缺点

SimHash对于短文本误判率比较高,因此建议大于500字以上的使用此算法

测试

总结

经过大量测试发现,余弦定理和SimHash都能很好的计算出文本相似度,而且有很高的正确度,余弦定理由于要对一整篇文章计算特征向量导致向量维度很高,计算速度比较慢,不适合大数据量的相似度计算;SimHash则事先把每篇文章降维到一个局部哈希数字,计算相似度的时候只需要计算对应的hash值,因此速度比较快,但是测试发现对于短文不误判率比较高,因此建议大于500字以上的使用此算法。

参考

http://grunt1223.iteye.com/blog/964564

http://www.ruanyifeng.com/blog/2013/03/cosine_similarity.html

https://simhash.codeplex.com/

https://github.com/primaryobjects/TFIDF

文章出处:http://www.cnblogs.com/weiguang3100/

.NET 开发交流

本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接。

时间: 2024-10-10 20:57:52

.NET下文本相似度算法余弦定理和SimHash浅析及应用的相关文章

转:文本相似度算法

文本相似度算法 原文出自:http://www.cnblogs.com/liangxiaxu/archive/2012/05/05/2484972.html 1.信息检索中的重要发明TF-IDF 1.1TF Term frequency即关键词词频,是指一篇文章中关键词出现的频率,比如在一篇M个词的文章中有N个该关键词,则 (公式1.1-1) 为该关键词在这篇文章中的词频. 1.2IDF Inverse document frequency指逆向文本频率,是用于衡量关键词权重的指数,由公式 (公

基于word分词提供的文本相似度算法来实现通用的网页相似度检测

实现代码:基于word分词提供的文本相似度算法来实现通用的网页相似度检测 运行结果: 检查的博文数:128 1.检查博文:192本软件著作用词分析(五)用词最复杂99级,相似度分值:Simple=0.968589 Cosine=0.955598 EditDistance=0.916884 EuclideanDistance=0.00825 ManhattanDistance=0.001209 Jaccard=0.859838 JaroDistance=0.824469 JaroWinklerDi

利用word分词提供的文本相似度算法来辅助记忆英语单词

本文实现代码:利用word分词提供的文本相似度算法来辅助记忆英语单词 本文使用的英语单词囊括了几乎所有的考纲词汇共18123词: /**  * 考纲词汇  * @return  */ public static Set<Word> getSyllabusVocabulary(){     return get("/word_primary_school.txt",             "/word_junior_school.txt",       

自己实现文本相似度算法(余弦定理)

最近由于工作项目,需要判断两个txt文本是否相似,于是开始在网上找资料研究,因为在程序中会把文本转换成String再做比较,所以最开始找到了这篇关于 距离编辑算法 Blog写的非常好,受益匪浅. 于是我决定把它用到项目中,来判断两个文本的相似度.但后来实际操作发现有一些问题:直接说就是查询一本书中的相似章节花了我7.8分钟:这是我不能接受…… 于是停下来仔细分析发现,这种算法在此项目中不是特别适用,由于要判断一本书中是否有相同章节,所以每两个章节之间都要比较,若一本书书有x章的话,这里需对比x(

关于文本相似度-LD算法和余弦算法的比较

具体算法代码网上有现成的工具类.不一一列举了.我在做某个项目的时候发现LD算法有个弊端.就是对于较大文本(>5w)的相似度计算会特别慢,原因在于LD的计算形式是: LD 可能衡量两字符串的相似性.它们的距离就是一个字符串转换成那一个字符串过程中的添加.删除.修改数值.如果文本变的非常的大可以想象计算的次数 如果两个字符串都是20000字符,则LD矩阵的大小为20000*20000*2=800000000Byte=800MB.故,在比较长字符串的时候,还有其他性能更好的算法. 下面介绍下余弦算法 

相似度算法之余弦相似度

转自:http://blog.csdn.net/u012160689/article/details/15341303 余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量. 余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,这就叫"余弦相似性". 上图两个向量a,b的夹角很小可以说a向量和b向量有很高的的相似性,极端情况下,a和b向量完全重合.如下图: 如上图二:可以认为a和b向量是相等的,也即a,b向量代表的文本是完全相似的,或

java文本相似度计算(Levenshtein Distance算法(中文翻译:编辑距离算法))----代码和详解

算法代码实现: package com.util; public class SimFeatureUtil { private static int min(int one, int two, int three) { int min = one; if (two < min) { min = two; } if (three < min) { min = three; } return min; } public static int ld(String str1, String str2)

余弦方法计算相似度算法实现

http://blog.csdn.net/cscmaker/article/details/7990600 余弦方法计算相似度算法实现 (1)余弦相似性 通过测量两个向量之间的角的余弦值来度量它们之间的相似性.0度角的余弦值是1,而其他任何角度的余弦值都不大于1;并且其最小值是-1.从而两个向量之间的角度的余弦值确定两个向量是否大致指向相同的方向.所以,它通常用于文件比较. 详见百科介绍(点击打开链接) (2)算法实现的中未使用权重(IDF ---逆文档频率),使用词项的出现次数作为向量空间的值

推荐算法-余弦相似度

一.余弦相似度: 余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,这就叫"余弦相似性" 二维向量的余弦相似度: 多维向量的余弦相似度(类比) 协同过滤(Collaborative Filtering, 简称 CF): 收集用户行为 减噪与归一化处理 减噪:用户行为数据是用户在使用应用过程中产生的,它可能存在大量的噪音和用户的误操作,我们可以通过经典的数据挖掘算法过滤掉行为数据中的噪音,这样可以是我们的分析更加精确 归一化:将各个行为的数据统一在一个相同的取值范围中,从而使得