tf–idf算法解释及其python代码实现(下)

tf–idf算法python代码实现

这是我写的一个tf-idf的核心部分的代码,没有完整实现,当然剩下的事情就非常简单了,我们知道tfidf=tf*idf,所以可以分别计算tf和idf值在相乘,首先我们创建一个简单的语料库,作为例子,只有四句话,每句表示一个文档

copus=[‘我正在学习计算机‘,‘它正在吃饭‘,‘我的书还在你那儿‘,‘今天不上班‘]

由于中文需要分词,jieba分词是python里面比较好用的分词工具,所以选用jieba分词,文末是jieba的链接。首先对文档进行分词:

import jieba
copus=[‘我正在学习计算机‘,‘它正在吃饭‘,‘我的书还在你那儿‘,‘今天不上班‘]
copus= [[word for word in jieba.cut(doc)] for doc in copus]
print(copus)

输出结果:

[[‘我‘, ‘正在‘, ‘学习‘, ‘计算机‘], [‘它‘, ‘正在‘, ‘吃饭‘], [‘我‘, ‘的‘, ‘书‘, ‘还‘, ‘在‘, ‘你‘, ‘那儿‘], [‘今天‘, ‘不‘, ‘上班‘]]

文档变成我们想要的格式了,然后开始词频统计,计算tf值,这里用Counter类来把每篇文档都转换成词和词频的字典,其实就已经得到tf值了

tf = []
for doc in copus:
tf.append(Counter(doc))
print(tf)

输出结果:

[Counter({‘我‘: 1, ‘正在‘: 1, ‘学习‘: 1, ‘计算机‘: 1}), Counter({‘它‘: 1, ‘正在‘: 1, ‘吃饭‘: 1}), Counter({‘的‘: 1, ‘书‘: 1, ‘你‘: 1, ‘在‘: 1, ‘那儿‘: 1, ‘我‘: 1, ‘还‘: 1}), Counter({‘今天‘: 1, ‘不‘: 1, ‘上班‘: 1})]

计算idf值

import math
from collections import defaultdict
idf = defaultdict(int)
for doc in tf:
    for word in doc:
        idf[word] += 1
for word in idf:
    idf[word] = math.log(len(idf)/(idf[word]+1))
print(idf)

输出结果:

defaultdict(<class ‘int‘>, {‘的‘: 2.0149030205422647, ‘正在‘: 1.6094379124341003, ‘学习‘: 2.0149030205422647, ‘计算机‘: 2.0149030205422647, ‘今天‘: 2.0149030205422647, ‘书‘: 2.0149030205422647, ‘那儿‘: 2.0149030205422647, ‘它‘: 2.0149030205422647, ‘不‘: 2.0149030205422647, ‘在‘: 2.0149030205422647, ‘吃饭‘: 2.0149030205422647, ‘我‘: 1.6094379124341003, ‘你‘: 2.0149030205422647, ‘还‘: 2.0149030205422647, ‘上班‘: 2.0149030205422647})

剩下的事情就很简单了,只需要把tf和idf相乘就可以了。

时间: 2024-10-14 12:15:08

tf–idf算法解释及其python代码实现(下)的相关文章

tf–idf算法解释及其python代码实现(上)

tf–idf算法解释 tf–idf, 是term frequency–inverse document frequency的缩写,它通常用来衡量一个词对在一个语料库中对它所在的文档有多重要,常用在信息检索和文本挖掘中. 一个很自然的想法是在一篇文档中词频越高的词对这篇文档越重要,但同时如果这个词又在非常多的文档中出现的话可能就是很普通的词,没有多少信息,对所在文档贡献不大,例如‘的’这种停用词.所以要综合一个词在所在文档出现次数以及有多少篇文档包含这个词,如果一个词在所在文档出现次数很多同时整个

55.TF/IDF算法

主要知识点: TF/IDF算法介绍 查看es计算_source的过程及各词条的分数 查看一个document是如何被匹配到的 一.算法介绍 relevance score算法,简单来说,就是计算出,一个索引中的文本,与搜索文本,他们之间的关联匹配程度.Elasticsearch使用的是 term frequency/inverse document frequency算法,简称为TF/IDF算法 1.Term frequency 搜索文本中的各个词条在field文本中出现了多少次,出现次数越多,

25.TF&IDF算法以及向量空间模型算法

主要知识点: boolean model IF/IDF vector space model 一.boolean model 在es做各种搜索进行打分排序时,会先用boolean model 进行初步的筛选,boolean model类似and这种逻辑操作符,先过滤出包含指定term的doc.must/must not/should(过滤.包含.不包含 .可能包含)这几种情况,这一步不会对各个doc进行打分,只分过滤,为下一步的IF/IDF算法筛选数据. 二.TF/IDF 这一步就是es为boo

神经网络和BP算法C及python代码

以上仅给出了代码.具体BP实现原理及神经网络相关知识请见:神经网络和反向传播算法推导 首先是前向传播的计算: 输入: 首先为正整数 n.m.p.t,分别代表特征个数.训练样本个数.隐藏层神经元个数.输出 层神经元个数.其中(1<n<=100,1<m<=1000, 1<p<=100, 1<t<=10). 随后为 m 行,每行有 n+1 个整数.每行代表一个样本中的 n 个特征值 (x 1 , x 2 ,..., x n ) 与样本的 实际观测结果 y.特征值的

朴素贝叶斯算法简介及python代码实现分析

概念: 贝叶斯定理:贝叶斯理论是以18世纪的一位神学家托马斯.贝叶斯(Thomas Bayes)命名.通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A(发生)的条件下的概率是不一样的:然而,这两者是有确定的关系的,贝叶斯定理就是这种关系的陈述 朴素贝叶斯:朴素贝叶斯方法是基于贝叶斯定理和特征条件独立假设的分类方法.对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布:然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率(Maximum A Posterio

朴素贝叶斯分类算法介绍及python代码实现案例

朴素贝叶斯分类算法 1.朴素贝叶斯分类算法原理 1.1.概述 贝叶斯分类算法是一大类分类算法的总称 贝叶斯分类算法以样本可能属于某类的概率来作为分类依据 朴素贝叶斯分类算法是贝叶斯分类算法中最简单的一种 注:朴素的意思是条件概率独立性 P(A|x1x2x3x4)=p(A|x1)*p(A|x2)p(A|x3)p(A|x4)则为条件概率独立 P(xy|z)=p(xyz)/p(z)=p(xz)/p(z)*p(yz)/p(z) 1.2.算法思想 朴素贝叶斯的思想是这样的: 如果一个事物在一些属性条件发生

排序算法总结以及python代码实现

最近在找工作面试的时候总是会被问到排序算法的种种,现在对排序算法进行一个系统的总结.也算是再复习一遍的,有好多自己也忘得差不多了. 排序有内部排序和外部排序两大类.内部排序值得是所有的排序是在内存中进行:外部排序则是因为数据量太大,一次不能将全部数据放在内存中,在排序过程中,需要访问外存. 关于时间复杂度和空间复杂度 由于时间关系,我没有自己画,以下的表格是在别处转的,详见常用排序算法总结 1.插入排序--直接插入排序(Straight Insertion Sort) 基本思想: 将一个记录插入

聚类算法总结以及python代码实现

一.聚类(无监督)的目标 使同一类对象的相似度尽可能地大:不同类对象之间的相似度尽可能地小. 二.层次聚类 层次聚类算法实际上分为两类:自上而下或自下而上.自下而上的算法在一开始就将每个数据点视为一个单一的聚类,然后依次合并(或聚集)类,直到所有类合并成一个包含所有数据点的单一聚类.因此,自下而上的层次聚类称为合成聚类或HAC.聚类的层次结构用一棵树(或树状图)表示.树的根是收集所有样本的唯一聚类,而叶子是只有一个样本的聚类.在继续学习算法步骤之前,先查看下面的图表 1.我们首先将每个数据点作为

快速指数算法+python代码

算法原理: Python代码: 1 def kuaiSuZhiShu(di, zhiShu, mod): 2 zhiShu2 = bin(zhiShu)[2:] 3 length = len(zhiShu2) 4 jieGuo = di**int(zhiShu2[0]) 5 for i in range(1, length): 6 jieGuo = jieGuo**2 % mod 7 jieGuo = jieGuo*di**int(zhiShu2[i]) % mod 8 return jieGu