统计词频



import re
from collections import Counter

string = """   Lorem ipsum dolor sit amet, consectetur
    adipiscing elit. Nunc ut elit id mi ultricies
    adipiscing. Nulla facilisi. Praesent pulvinar,
    sapien vel feugiat vestibulum, nulla dui pretium orci,
    non ultricies elit lacus quis ante. Lorem ipsum dolor
    sit amet, consectetur adipiscing elit. Aliquam
    pretium ullamcorper urna quis iaculis. Etiam ac massa
    sed turpis tempor luctus. Curabitur sed nibh eu elit
    mollis congue. Praesent ipsum diam, consectetur vitae
    ornare a, aliquam a nunc. In id magna pellentesque
    tellus posuere adipiscing. Sed non mi metus, at lacinia
    augue. Sed magna nisi, ornare in mollis in, mollis
    sed nunc. Etiam at justo in leo congue mollis.
    Nullam in neque eget metus hendrerit scelerisque
    eu non enim. Ut malesuada lacus eu nulla bibendum
    id euismod urna sodales.  """

words = re.findall(r‘\w+‘, string) #This finds words in the document

lower_words = [word.lower() for word in words] #lower all the words

word_counts = Counter(lower_words) #counts the number each time a word appears
print word_counts

# Counter({‘elit‘: 5, ‘sed‘: 5, ‘in‘: 5, ‘adipiscing‘: 4, ‘mollis‘: 4, ‘eu‘: 3,
# ‘id‘: 3, ‘nunc‘: 3, ‘consectetur‘: 3, ‘non‘: 3, ‘ipsum‘: 3, ‘nulla‘: 3, ‘pretium‘:
# 2, ‘lacus‘: 2, ‘ornare‘: 2, ‘at‘: 2, ‘praesent‘: 2, ‘quis‘: 2, ‘sit‘: 2, ‘congue‘: 2, ‘amet‘: 2,
# ‘etiam‘: 2, ‘urna‘: 2, ‘a‘: 2, ‘magna‘: 2, ‘lorem‘: 2, ‘aliquam‘: 2, ‘ut‘: 2, ‘ultricies‘: 2, ‘mi‘: 2,
# ‘dolor‘: 2, ‘metus‘: 2, ‘ac‘: 1, ‘bibendum‘: 1, ‘posuere‘: 1, ‘enim‘: 1, ‘ante‘: 1, ‘sodales‘: 1, ‘tellus‘: 1,
# ‘vitae‘: 1, ‘dui‘: 1, ‘diam‘: 1, ‘pellentesque‘: 1, ‘massa‘: 1, ‘vel‘: 1, ‘nullam‘: 1, ‘feugiat‘: 1, ‘luctus‘: 1,
# ‘pulvinar‘: 1, ‘iaculis‘: 1, ‘hendrerit‘: 1, ‘orci‘: 1, ‘turpis‘: 1, ‘nibh‘: 1, ‘scelerisque‘: 1, ‘ullamcorper‘: 1,
# ‘eget‘: 1, ‘neque‘: 1, ‘euismod‘: 1, ‘curabitur‘: 1, ‘leo‘: 1, ‘sapien‘: 1, ‘facilisi‘: 1, ‘vestibulum‘: 1, ‘nisi‘: 1,
# ‘justo‘: 1, ‘augue‘: 1, ‘tempor‘: 1, ‘lacinia‘: 1, ‘malesuada‘: 1})

				
时间: 2024-10-21 23:32:35

统计词频的相关文章

C++回顾 统计词频问题 -- vector、map、hash_map(三种方式时间比较)

本博文我们通过三个程序比较统计词频问题的时间复杂度问题: 问题描述; 1).找一篇文章,将所有单词输入至程序:(The Bible Holy为例) 2).统计出每个单词的数量,即词频问题: 3).增加停用词功能:(遇到此类词,直接略过)(网上搜) 4).分别统计出读取文件并计算词频时间.排序所用时间: 5).用 类 实现各函数(处统计时间的函数除外). vector.map.hash_map 都要处理字符串的 去除标点符号.将大写字母转换成小写字母.不对数字进行统计 问题.因此,我们可以将处理这

Excel中COUNTIFS函数统计词频个数出现次数

Excel中COUNTIFS函数统计词频个数出现次数 在Excel中经常需要实现如下需求:在某一列单元格中有不同的词语,有些词语相同,有的不同(如图1所示).需要统计Excel表格中每个词语出现的个数,即相当于统计词频出现次数. 图1. Excel表格统计个数 解决方法:采用COUNTIFS函数. COUNTIFS 函数语法及格式:COUNTIFS(criteria_range1, criteria1, [criteria_range2, criteria2]…)其中,criteria_rang

自然语言理解 之 统计词频

统计词频,中文字体编码格式:GB2312. 1 #include <iostream> 2 #include <fstream> 3 #include <algorithm> 4 #include <functional> 5 #include <string> 6 #include <vector> 7 #include <map> 8 #include <unordered_map> 9 #include

[学习记录]NLTK常见操作一(去网页标记,统计词频,去停用词)

NLTK是python环境中的一个非常流行的NLP库,这篇记录主要记录NLTK的一些常见操作 1.去除网页html标记 我们常常通过爬虫获取网页信息,然后需要去除网页的html标签.为此我们可以这么做: 2.统计词频 这里使用的tokens就是上面图中的tokens 3.去除停用词 停用词就是类似the,a,of这种语义无价值的词,取出后我们还可以把统计图画出来 4.绘制词云图 对于词云图的使用原理还不太清楚,只是找了一个可运行的公式 原文地址:https://www.cnblogs.com/t

python进行分词及统计词频

#!/usr/bin/python # -*- coding: UTF-8 -*- #分词统计词频 import jieba import re from collections import Counter content="" filename=r"../data/commentText.txt"; result = "result_com.txt" r='[0-9\s+\.\!\/_,$%^*()?;::-[]+\"\']+|[+

python统计词频

一.程序分析 (1)读取文件到缓冲区 def process_file(dst): # 读文件到缓冲区 try: # 打开文件 f1=open(dst,"r") except IOError as s: print (s) return None try: # 读文件到缓冲区 bvffer=f1.read() except: print ("Read File Error!") return None f1.close() return bvffer (2)缓冲区字

[Bash]LeetCode192..统计词频 | Word Frequency

Write a bash script to calculate the frequency of each word in a text file words.txt. For simplicity sake, you may assume: words.txt contains only lowercase characters and space ' ' characters. Each word must consist of lowercase characters only. Wor

Python 中文文件统计词频 + 中文词云

1. 词频统计: 1 import jieba 2 txt = open("threekingdoms3.txt", "r", encoding='utf-8').read() 3 words = jieba.lcut(txt) 4 counts = {} 5 for word in words: 6 if len(word) == 1: 7 continue 8 else: 9 counts[word] = counts.get(word,0) + 1 10 it

运用jieba库统计词频及制作词云

一.对新时代中国特色社会主义做词频统计 import jieba txt = open("新时代中国特色社会主义.txt","r",encoding="utf-8").read() words = jieba.lcut(txt) counts = {} for word in words: if len(word) == 1: continue else: counts[word] = counts.get(word,0)+1 items = l

C#通过正则表达式统计词频的一个方法

/// <summary> /// 取得指定字符串在源字符串中出现的次数 /// </summary> /// <param name="str"></param> /// <param name="sourcestr"></param> /// <returns></returns> static int GetStrAppearTimes(string str, st