最近在做一个应用依存文法分析来提取文本中各种关系的词语的任务。例如:text=‘新中国在马克思的思想和恩格斯的理论阔步向前’:
ps:这里马克思和恩格斯原来我是用的毛zd和邓xp,但是系统说这两个名字违规了。。。。。。。。我很爱国的好不好!!!!!!
我需要提取这个text中的并列的两个关系,从文中分析可知,“马克思的思想”和“恩格斯的理论”是两个并列关系的短语,所以想要将其提取出来;
首先大致了解一下依存文法分析的前提条件,将句子分词并进行词性标注,这一步非常关键,直接决定分析结果的好坏。
看一下不修改分词字典情况下直接进行并列关系提取的结果:
text= "新中国在马克思的思想和恩格斯的理论指导下阔步向前" java = JClass(‘com.hankcs.hanlp.dependency.nnparser.NeuralNetworkDependencyParser‘) # 调用原始类接口进行句法分析 dp_result = java.compute(seg_result1) print(‘java提取结果:‘+‘\n‘,dp_result) word_array = dp_result.getWordArray() final= [] for word in word_array: result = [word.LEMMA, word.DEPREL, word.HEAD.LEMMA] print("%s --(%s)--> %s" % (word.LEMMA, word.DEPREL, word.HEAD.LEMMA)) # 输出依存关系 if result[1]==‘COO‘: # 提取并列关系COO final.append(word.LEMMA) final.append(word.HEAD.LEMMA) final_set = set(final) print(final_set)结果:{‘思想‘,‘理论‘}
虽然提取出来的结果也算合理,但是还是不够准确,我希望的结果是{‘马克思的思想‘,‘恩格斯的理论‘}
接下来我将需要目标词动态添加到分词字典中,然后再来进行依存文法分析
text= "新中国在马克思的思想和恩格斯的理论指导下阔步向前" segment =HanLP.newSegment(‘viterbi‘) CustomDictionary.insert(‘马克思的思想‘, ‘n 1024‘) # insert会覆盖字典中已经存在的词,add会跳过已经存在的词 CustomDictionary.insert(‘恩格斯的理论‘, ‘n 1024‘) segment.enableCustomDictionaryForcing(True) # 强制执行 seg_result1 = segment.seg(text) # 分词结果 print(‘分词结果:‘,seg_result1) java = JClass(‘com.hankcs.hanlp.dependency.nnparser.NeuralNetworkDependencyParser‘) # 调用原始类接口进行句法分析 dp_result = java.compute(seg_result1) print(‘java提取结果:‘+‘\n‘,dp_result) word_array = dp_result.getWordArray() final= [] for word in word_array: result = [word.LEMMA, word.DEPREL, word.HEAD.LEMMA] print("%s --(%s)--> %s" % (word.LEMMA, word.DEPREL, word.HEAD.LEMMA)) # 输出依存关系 if result[1]==‘COO‘: final.append(word.LEMMA) final.append(word.HEAD.LEMMA) final_set = set(final) print(final_set)
结果:{‘马克思的思想‘,‘恩格斯的理论‘}
以上实现了正确的并列关系提取。
为什么我要用上面这种提取方法,这里我们在进一步看看依存分析的java的源码:
/** * 分析句子的依存句法 * * @param termList 句子,可以是任何具有词性标注功能的分词器的分词结果 * @return CoNLL格式的依存句法树 */ public static CoNLLSentence compute(List<Term> termList) { return new NeuralNetworkDependencyParser().parse(termList); } /** * 分析句子的依存句法 * * @param sentence 句子 * @return CoNLL格式的依存句法树 */ public static CoNLLSentence compute(String sentence) { return new NeuralNetworkDependencyParser().parse(sentence); } }
从上述源码可以看到类NeuralNetworkDependencyParser的comoute方法下有两种输入模式,一种是支持直接输入text来进行分析,一种是支持词性标注结果list来进行分析。
这里如果想要用自己定义的词来进行分词并按照分词结果分析,则需要在compute方法中输入词性标注的list来进行依存文法分析。
需要注意的地方,在hannlp官方作者给出的python调用代码中是如下方法:
sentence = HanLP.parseDependency(text)
但是这个方法只能够输入的text,而不是一个词性标注结果list,这样就会导致最后生成的依存文法提取结果并不是动态添加到分词字典中的词。(尽管作者说动态添加到分词字典中的词是默认到所有分词器中的。)
另外需要说明的是sentence = HanLP.parseDependency(text)这个方法提取的并列关系都是用中文来表示,而上文中用词性标注结果成功提取的并列关系都是英文大写缩写标注的,
这里最后附上大写缩写的中文解释:
定中关系ATT数量关系QUN(quantity)并列关系COO(coordinate)同位关系APP(appositive)附加关系ADJ(adjunct)动宾关系VOB(verb-object)介宾关系POB(preposition-object)主谓关系SBV(subject-verb)比拟关系SIM(similarity)时间关系TMP(temporal)处所关系LOC(locative)“的”字结构DE“地”字结构DI“得”字结构DEI“所”字结构SUO“把”字结构BA“被”字结构BEI状中结构ADV(adverbial)动补结构CMP(complement)兼语结构DBL(double)关联词CNJ(conjunction)关联结构 CS(conjunctive structure)语态结构MT(mood-tense)连谓结构VV(verb-verb)核心HED(head)前置宾语FOB(fronting object)双宾语DOB(double object)主题TOP(topic)独立结构IS(independent structure)独立分句IC(independent clause)依存分句DC(dependent clause)叠词关系VNV (verb-no-verb or verb-one-verb)一个词YGC标点 WP
原文地址:https://www.cnblogs.com/zxyza/p/10234595.html