关于高频关键词共现,ACA(作者同被引)等的范式

这篇随笔是写在看了若干篇关于高频关键词共现和ACA的文章之后的一个总结,这些论文大多是2010年之前发表的,这与这种方法是传统方法有很大关系。同时,这些文章不仅限于图书情报领域。

下面是正文:

①大多数论文用的方法就是崔雷说不太合适的,具体来说是:先用SPSS里的分析--相关--距离--皮尔森系数,将原始共现矩阵转化为相似性矩阵(其实也可以用cosine,许海云的文章就是没用Pearson用的cosine),然后在这个矩阵的基础上进行聚类分析和MDS分析。MDS分析就是用的是得到的矩阵然后操作就是按照http://blog.sina.com.cn/s/blog_49f78a4b0100hr4j.html这个网址里说的,当然其实用原始共现矩阵也可以,这样的话就是完全按照网址里说的。。而因子分析一般是用原始的矩阵进行,就是那种做问卷的因子分析,然而这里就是用之前的那个转化后得到的相关矩阵来做。
②做高频词(关键词)的时候用1去减①里提到的相似矩阵(不过这时候用的是Ochiai系数了结果都是正数的系数)的值得到的结果就是相异矩阵,很好理解,因为相似程度1,相异程度自然就是0。关键词分析的话是用相异矩阵做MDS,用相似矩阵做聚类,用原始共现矩阵做因子分析(这是马费成和张勤写的《国外知识管理研究范式》里说的,发表在07年12月的管理科学学报上)
③皮尔森相关系数矩阵是可以算出负数的,这种情况下应该还是不用管,就是按照①里面说的,进行MDS操作和聚类

原文地址:https://www.cnblogs.com/liuqiang8650/p/8451452.html

时间: 2024-10-02 20:47:18

关于高频关键词共现,ACA(作者同被引)等的范式的相关文章

基于共现发现人物关系的python实现

基于共现发现人物关系的python实现 参考链接: 提取<釜山行>人物关系, 用Python的networkx绘制精美网络图 1.共现关系 在文献计量学中,关键词的共词方法常用来确定该文献集所代表学科中各主题之间的关系.而在这里,我们需要通过分析一篇小说或剧本,来分析剧中各个角色之间的人物关系.两者有很相同的地方. 一般我们认为,在一篇文章中的同一段出现的两个人物之间,一定具有某种关联,因此我们的程序的大致流程也可以确定下来.我们可以先做分词,将每一段中的人物角色抽取出来,然后以段落为单位,统

三国人物共现网络

三国部分人物共现图

向MapReduce转换:计算共现关系

分两部分: <strong><span style="font-size:18px;">/*** * @author YangXin * @info 计算共现关系的Mapper */ package unitSix; import java.io.IOException; import java.util.Iterator; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.map

(转) 基于MapReduce的ItemBase推荐算法的共现矩阵实现(一)

  转自:http://zengzhaozheng.blog.51cto.com/8219051/1557054 一.概述 这2个月研究根据用户标签情况对用户的相似度进行评估,其中涉及一些推荐算法知识,在这段时间研究了一遍<推荐算法实践>和<Mahout in action>,在这里主要是根据这两本书的一些思想和自己的一些理解对分布式基于ItemBase的推荐算法进行实现.其中分两部分,第一部分是根据共现矩阵的方式来简单的推算出用户的推荐项,第二部分则是通过传统的相似度矩阵的方法来

地球物理学部分术语共现图

地球物理学部分术语共现图

【经典】PMP考试-高频关键词锁定答案

PMP考试4小时,200道题,100多页的试卷,还要涂答题卡--如果平时没有强加训练,时间还是非常紧张的!而且,PMP考试情景题居多,提干又巨长,心脏不好的人,一般都会吓着,我也曾见过考完试手不停哆嗦的人,太紧张导致.但是,只要掌握住方法,做题的速度和准确率会大大提升.在这里我个人强烈建议大家做题直接找关键词,不要纠结,很多题目,你越纠结,越搞不清选哪个,这也是为什么很多人答案一改就错的原因.以下笔者从数万PMP考题中抽取的一些高频关键词考点,希望对所有PMP考生能够起到一定的帮助作用. 1.项

词表征 1:WordNet、0-1表征、共现矩阵、SVD

原文地址:https://www.jianshu.com/p/c1e4f42b78d7 一.基于知识的表征 参见图1.1,WordNet中包含同义词集(synonym sets)和上位词(hypernyms, is a关系). 其存在的问题为: 作为资源来说是好的,但是它失去了词间的细微差别: 比如说"good"和"full"同义是需要在一定的上下文中才能成立的. 易错过词的新义,基本不可能时时保持up-to-date: 是人为分的,所以是主观的结果: 需要花费很多

买了李杰的R科学计量数据可视化后的一个小纠结的问题

就是那里面说出现矩阵A是行是文章,列是各种字段,比如关键词.作者.参考文献等等的矩阵.然后共现矩阵(与出现矩阵不同,是方阵)是出现矩阵A和A的转置矩阵A^T的左乘右乘的结果,具体来说是有矩阵B=A*A^T(左乘),矩阵=A^T*A(右乘).然后纠结的地方就是为什么说矩阵B是耦合矩阵(也就意味着列只能是参考文献,因为耦合的定义就是2篇论文的参考文献相同),矩阵C是各种共现矩阵.其实很容易理解,B是得到一个行是论文数列也是论文数的矩阵,当然是以论文为分析对象,也就只能是耦合.同理,C是以各种如关键词

基于高维聚类技术的中文关键词提取算法

[摘要]关键词提取是中文信息处理技术的热点和难点,基于统计信息的方法是其中一个重要分支.本文针对基于统计信息关键词提取方法准确率低的问题,提出基于高维聚类技术的中文关键词提取算法.算法通过依据小词典的快速分词.二次分词.高维聚类及关键词甄选四个步骤实现关键词的提取.理论分析和实验显示,基于高维聚类技术的中文关键词提取方法具备更好的稳定性.更高的效率及更准确的结果. 引言  关键词提取是通过对一篇输入文章做内容分析,按一定比例或字数要求提取出重要且语义相似性凝聚的关键词的过程.关键词自动提取是文本