<<Natural Language Inference over Interaction Space >>论文速读

模型结构

code :https://github.com/YichenGong/Densely-Interactive-Inference-Network

首先是模型图:

Embedding Layer

词嵌入+字嵌入+syntactical features (句法特征) 拼接。

词嵌入:glove pre-trained, 可训练

字嵌入:conv1d +maxpoling ,解决oov问题,(P,H公用同一个卷积参数)
syntactical features: pos tagging+binary exact match (EM) feature  的onehot

Encoding Layer

P H经过2层highway network 得到 p*d 、h*d维的矩阵,再经过self-attention,self-att公式如下:

~P跟P同时经过fuse-gate,fuse-gate可以看做是skip connection .公式如下

intra-attention and fuse gate 时 ,P H的参数不共享。但是参数权重的差异会加惩罚,为了保证PH可以平行的学习相似性。

Interation Layer

Feature Extraction  Layer

利用denseNet进行特征提取,resNet 也可以,但是参数太多。

没有用BN,

激活函数relu。具体细节看代码。

Output Layer

uses a linear layer and flattened 进行分类、

感想

0、词向量的表示上,

1、DenseNet,

2、fuse-gate,

参考:

https://blog.csdn.net/xiayto/article/details/81247461

原文地址:https://www.cnblogs.com/zle1992/p/9851275.html

时间: 2024-10-10 07:22:24

<<Natural Language Inference over Interaction Space >>论文速读的相关文章

《Enhanced LSTM for Natural Language Inference》(自然语言推理)

解决的问题 自然语言推理,判断a是否可以推理出b.简单讲就是判断2个句子ab是否有相同的含义. 方法 我们的自然语言推理网络由以下部分组成:输入编码(Input Encoding ),局部推理模型(Local Inference Modeling ),和推断合成(inference composition).结构图如下所示: 垂直来看,上图显示了系统的三个主要组成部分:水平来看,左边代表称为ESIM的序列NLI模型,右边代表包含了句法解析信息的树形LSTM网络. 输入编码 1 # Based o

《Semantic Sentence Matching with Densely-connected Recurrent and Co-attentive Information》DRCN 论文速读

模型结构 首先是模型图: 传统的注意力机制无法保存多层原始的特征,根据DenseNet的启发,作者将循环网络的隐层的输出与最后一层连接. 另外加入注意力机制,代替原来的卷积.由于最后的特征维度过大,加入AE降维. Word Representation Layer 层 自然语言的任务首先就是输入层,对每个词的one-hot表示进行embedding, 这几个公式很好理解,首先作者将词的embedding分为两部分,一部分参与训练,即EtrEtr,另一部分是固定不动的,即EfixEfix, cp:

论文速读(Yongchao Xu——【2018】TextField_Learning A Deep Direction Field for Irregular Scene Text)

Yongchao Xu--[2018]TextField_Learning A Deep Direction Field for Irregular Scene Text Detection 论文 Yongchao Xu--[2018]TextField_Learning A Deep Direction Field for Irregular Scene Text Detection 作者 亮点 提出的TextField方法非常新颖,用点到最近boundary点的向量来区分不同instance

A curated list of speech and natural language processing resources

A curated list of speech and natural language processing resources At Josh.ai, we’re often asked for developer resources relating to natural language processing, machine learning, and artificial intelligence. Paul Dixon, a researcher living in Kyoto

Natural Language Processing with Python - Chapter 0

一年之前,我做梦也想不到会来这里写技术总结.误打误撞来到了上海西南某高校,成为了文科专业的工科男,现在每天除了膜ha,就是恶补CS.导师是做计算语言学的,所以当务之急就是先自学计算机自然语言处理,打好底子准备做科研(认真脸). 进入正题,从图书馆找了本“Natural Language Processing with Python” (影印版),书长这个样子,作者是Steven Bird, Ewan Klein和Edward Loper.粘贴个豆瓣链接供参考:https://book.douba

Deep Learning for Natural Language Processing1

Focus, Follow, and Forward Stanford CS224d 课程笔记 Lecture1 Stanford CS224d 课程笔记 Lecture1 Stanford大学在2015年开设了一门Deep Learning for Natural Language Processing的课程,广受好评.并在2016年春季再次开课.我将开始这门课程的学习,并做好每节课的课程笔记放在博客上.争取做到每周一更吧.本文是第一篇. NLP简介 NLP,全名Natural Languag

如何将 Cortana 与 Windows Phone 8.1 应用集成 ( Voice command - Natural language recognition )

随着 Windows Phone 8.1 GDR1 + Cortana 中文版的发布,相信有很多用户或开发者都在调戏 Windows Phone 的语音私人助理 Cortana 吧,在世界杯的时候我亲测 Cortana 预测德国和阿根廷的比赛很准的.(题外话扯远了),可是作为开发者我们怎么将Cortana集成到应用中呢,今天我用一点时间给大家介绍一下如何使用 voice command 集成 Windows Phone 8.1 的应用. 首先要明确两个名词 Voice command & Voi

natural language processing

基于python 自然语言处理工具包 :NLPT(natural language processing toolkit)  ,安装时 sudo pip -U install nltk NLPT的网址 Natural language processing toolkits Name Language License Creators Website Apertium C++, Java GPL (various) [1] Deeplearning4j Java, Scala Apache 2.

CS224d: Deep Learning for Natural Language Process

Course Description Teaching Assistants Peng Qi Course Notes (updated each week) Detailed Syllabus Class Time and Location Spring quarter (March - June, 2015).Lecture: Monday, Wednesday 11:00-12:15Location: TBD Office Hours Richard: Wed 12:45 - 2:00,