NLTK学习笔记(三):NLTK的一些工具

主要总结一下简单的工具:条件频率分布、正则表达式、词干提取器和归并器。


条件分布频率

《自然语言学习》很多地方都用到了条件分布频率,nltk提供了两种常用的接口:FreqDist 和 ConditionalFreqDist 。后面很多都会用到这两种方法,特别是第二个。因为第二个更符合定义,会智能的找到条件。
然后根据绘图的库,可以做出来很漂亮的图形。

简单的FreqDist

函数接收list类型的参数后,会自动创建字典,生成对应的值为键值,而value就是元素的次数。

from nltk import *
tem = [‘hello‘,‘world‘,‘hello‘,‘dear‘]
print(FreqDist(tem))
out:
FreqDist({‘dear‘: 1, ‘hello‘: 2, ‘world‘: 1})

通过 plot(TopK,cumulative=True) 和 tabulate() 可以绘制对应的折线图和表格(必须安装matplotlib库)

条件分布ConditionalFreqDist

以一个配对链表作为输入,需要给分配的每个事件关联一个条件,输入时类似于 (条件,事件) 的元组。之后的工作交给nltk就可以了,更多的精力可以用来关注上层逻辑。

import nltk
from nltk.corpus import brown
cfd = nltk.ConditionalFreqDist((genre,word) for genre in brown.categories() for word in brown.words(categories=genre))
print("conditions are:",cfd.conditions()) #查看conditions
print(cfd[‘news‘])
print(cfd[‘news‘][‘could‘])#类似字典查询
out:
conditions are: [‘adventure‘, ‘belles_lettres‘, ‘editorial‘, ‘fiction‘, ‘government‘, ‘hobbies‘, ‘humor‘, ‘learned‘, ‘lore‘, ‘mystery‘, ‘news‘, ‘religion‘, ‘reviews‘, ‘romance‘, ‘science_fiction‘]
<FreqDist with 14394 samples and 100554 outcomes>
86

尤其对于plot() 和 tabulate() 有了更多参数选择:

  • conditions:指定条件
  • samples:迭代器类型,指定取值范围
  • cumulative:设置为True可以查看累积值
cfd.tabulate(conditions=[‘news‘,‘romance‘],samples=[‘could‘,‘can‘])
cfd.tabulate(conditions=[‘news‘,‘romance‘],samples=[‘could‘,‘can‘],cumulative=True)
        could   can
news    86    93
romance   193    74 

        could   can
news    86   179
romance   193   267 

正则表达式及其应用

记录正则表达式在自然语言中的应用。

输入法联想提示(9宫格输入法)

查找类似于hole和golf序列(4653)的单词。

import re
from nltk.corpus import words
wordlist = [w for w in words.words(‘en-basic‘) if w.islower()]
same = [w for w in wordlist if re.search(r‘^[ghi][mno][jlk][def]$‘,w)]
print(same)

只用键盘的一部分搜索就是手指绕口令。例如:^[ghijklmno]+$等。像[^aeiouAEIOU]就是匹配除元音外的所有字母。

寻找字符块

查找两个或两个以上的元音序列,并且确定相对频率。

import nltk
wsj = sorted(set(nltk.corpus.treebank.words()))
fd = nltk.FreqDist(vs for word in wsj for vs in re.findall(r‘[aeiou]{2,}‘,word))
fd.items()

而且,我们也可以辅音元音序列。

查找词干

apples和apple对比中,apple就是词干。写一个简单脚本来查询词干。

def stem(word):
    for suffix in [‘ing‘,‘ly‘,‘ed‘,‘ious‘,‘ies‘,‘ive‘,‘es‘,‘s‘,‘ment‘]:
        if word.endswith(suffix):
            return word[:-len(suffix)]
    return None

而使用正则表达式,只需要一行:

re.findall(r‘^(.*?)(ing|ly|ed|ious|ies|ive|es|s|ment)$‘,word)

词干提取器和归并器

nltk提供了PorterStemmer 和 LancasterStemmer两个词干提取器,Porter比较好,可以处理lying这样的单词。

porter = nltk.PorterStemmer()
print(porter.stem(‘lying‘))

如果需要处理women这样的词,需要词性归并器:WordNetLemmatizer

wnl = nltk.WordNetLemmatizer()
print(wnl.lemmatize(‘women‘))

利用词干提取器实现索引文本(concordance)

利用到nltk.Index这个函数,nltk.Index((word , i) for (i,word) in enumerate([‘a‘,‘b‘,‘a‘]))

class IndexText:
    def __init__(self,stemmer,text):
        self._text = text
        self._stemmer = stemmer
        self._index = nltk.Index((self._stem(word),i) for (i,word) in enumerate(text))
    def _stem(self,word):
        return self._stemmer.stem(word).lower()
    def concordance(self,word,width =40):
        key = self._stem(word)
        wc = width/4 #words of context
        for i in self._index[key]:
            lcontext = ‘ ‘.join(self._text[int(i-wc):int(i)])
            rcontext = ‘ ‘.join(self._text[int(i):int(i+wc)])
            ldisplay = ‘%*s‘ % (width,lcontext[-width:])
            rdisplay = ‘%-*s‘ % (width,rcontext[:width])
            print(ldisplay,rdisplay)
porter = nltk.PorterStemmer()
grail = nltk.corpus.webtext.words(‘grail.txt‘)
text = IndexText(porter,grail)
text.concordance(‘lie‘)
时间: 2024-10-23 11:10:30

NLTK学习笔记(三):NLTK的一些工具的相关文章

NLTK学习笔记(四):自然语言处理的一些算法研究

自然语言处理中算法设计有两大部分:分而治之 和 转化 思想.一个是将大问题简化为小问题,另一个是将问题抽象化,向向已知转化.前者的例子:归并排序:后者的例子:判断相邻元素是否相同(与排序). 这次总结的自然语言中常用的一些基本算法,算是入个门了. 递归 使用递归速度上会受影响,但是便于理解算法深层嵌套对象.而一些函数式编程语言会将尾递归优化为迭代. 如果要计算n个词有多少种组合方式?按照阶乘定义:n! = n*(n-1)*...*1 def func(wordlist): length = le

NLTK学习笔记(五):分类和标注词汇

[TOC] 词性标注器 之后的很多工作都需要标注完的词汇.nltk自带英文标注器pos_tag import nltk text = nltk.word_tokenize("And now for something compleyely difference") print(text) print(nltk.pos_tag(text)) 标注语料库 表示已经标注的标识符:nltk.tag.str2tuple('word/类型') text = "The/AT grand/J

NFC学习笔记——三(在windows操作系统上安装libnfc)

本篇翻译文章: 这篇文章主要是说明如何在windows操作系统上安装.配置和使用libnfc. 一.基本信息 1.操作系统: Windows Vista Home Premium SP 2 2.硬件信息: System: Dell Inspiron 1720 Processor: Intel Core 2 Duo CPU T9300 @ 2.5GHz 2.5GHz System type: 32-bit Operating System 3.所需软件: 在windows操作系统上安装软件需要下列

加壳学习笔记(三)-简单的脱壳思路&amp;调试思路

首先一些windows的常用API: GetWindowTextA:以ASCII的形式的输入框 GetWindowTextW:以Unicaode宽字符的输入框 GetDlgItemTextA:以ASCII的形式的输入框 GetDlgItemTextW:以Unicaode宽字符的输入框 这些函数在使用的时候会有些参数提前入栈,如这函数要求的参数是字符串数目.还有大小写啦之类的东西,这些东西是要在调用该函数之前入栈,也就是依次push,就是说一般前面几个push接着一个call,那前面的push可能

lucene学习笔记(三)

好几天没更新了.更新一下,方便自己和大家学习. 这是最基本的代码 package index; import java.io.File; import java.io.IOException; import java.util.HashMap; import java.util.Map; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document;

Ajax学习笔记(三)

三.jQuery库详解 1.使用jQuery之后,javascript操作的不再是HTML元素对应的DOM对象,而是包装DOM对象的jQuery对象.js通过调用jQuery对象的方法来改变它所包装的DOM对象的属性,从而实现动态更新HTML页面. 由此可见,使用jQuery动态更新HTML页面只需以下两个步骤: (1)获取jQuery对象.jQuery对象通常是DOM对象的包装 (2)调用jQuery对象的方法来改变自身.当jQuery对象被改变时,jQuery包装的DOM对象随之改变,HTM

马哥学习笔记三十——tomcat

Java体系结构包含四个独立却又彼此相关的技术: Java程序设计语言 Java API Java Class文件格式 JVM: Java Virtual Machine JVM的实现方式: 1.一次性解释器,解释字节码并执行: 2.即时编译器(just-in-time complier) 依赖于更多内存缓存解释后的结果 3.自适应编译器 缓存20%左右代码,提高80%左右的速度: 运行时数据区: 线程私有内存区: 程序计数器 java虚拟机栈 线程共享内存区: 方法区 堆:java自动内存回收

Caliburn.Micro学习笔记(三)----事件聚合IEventAggregator和 Ihandle&lt;T&gt;

Caliburn.Micro学习笔记(三)----事件聚合IEventAggregator和 Ihandle<T> 今天 说一下Caliburn.Micro的IEventAggregator和IHandle<T>分成两篇去讲这一篇写一个简单的例子 看一它的的实现和源码 下一篇用它们做一个多语言的demo 这两个是事件的订阅和广播,很强大,但用的时候要小心发生不必要的冲突. 先看一下它的实现思想 在Caliburn.Micro里EventAggregator要以单例的形式出现这样可以

OpenCV for Python 学习笔记 三

给源图像增加边界 cv2.copyMakeBorder(src,top, bottom, left, right ,borderType,value) src:源图像 top,bottem,left,right: 分别表示四个方向上边界的长度 borderType: 边界的类型 有以下几种: BORDER_REFLICATE # 直接用边界的颜色填充, aaaaaa | abcdefg | gggg BORDER_REFLECT # 倒映,abcdefg | gfedcbamn | nmabcd