论文阅读 | Event Identification as a Decision Process with Non-linear Representation of Text

一、摘要

提供了一种新的篇章级别的事件识别模型scale-free Identifier Network (sfIN),能够更有效地处理长文档。模型采用监督学习和强化学习结合的方法训练。

二、架构

与LSTM-crf等基于神经网络的模型不同,mRR将文本编码到一个分层的存储栈中,使整个文本能进行更复杂的非线性转换。建立存储栈后,一个基于RNN的控制器每次读取存储的一部分,并对当前标签进行预测。有三个读头,在操作完成后被更新,以表明哪一部分存储是可访问的。当一个读头到达文本的末尾,整个过程就结束了。下图是mRR的结构。

1. 文本编码器(Text Encoder)

文本编码器不仅将原始文本作为输入,还将结构信息作为输入,输出一个分层的存储,该存储有三个级别:单词级(word level)、句子级(sentence level)和段落级(paragraph level)。存储通常被定义为一个无限大小的矩阵。这里将存储限制为三个预先定义的矩阵Nw × dwNs × dsNp × dp,其中在每个级别的每个位置上有N*个位置和d*个值。N依赖于实例,并且是由算法预定义的。在实现中不同级别的存储有不同的d。

文本编码器分为三部分:单词编码器(word encoder)、句子编码器(sentence encoder)和段落编码器(paragraph encoder)。

1.1 单词编码器

单词编码器以原始文本为输入,输出M∈ Nw × dw的单词级存储,其中Nw是文档中的单词数,dw是单词级存储的维度。

1.2 句子编码器

在CNN的启发下,在单词级存储上应用element-wise max-pooling生成“句子向量”,从局部特征中提取全局特征。存储矩阵MsMw同理,通过一个BiLSTM层生成。

1.3 段落编码器

对于每个段落,在Ms对应句子所属的子矩阵上应用element-wise max-pooling生成Mp

2. 控制器(Controller)

控制器的结构是一个RNN层和9个前馈神经网络(FNN),输出是一维的。每次RNN用三个读头读取分层存储并更新其隐状态,然后将其反馈给FNN来生成一个action。标签序列(tag sequence)被添加到先前的结果中,同时更新读头的位置。

控制器被训练成一个action的代理,它可以读取部分分层存储,并且在每个time step上选择动作(并生成标签序列的一部分)。对应9个FNN有9个可用的动作:将一个单词/句子/段落标记为非事件/当前事件/新事件。

读取存储:用一个三维向量来表示当前的位置,每个维度代表存储的每个层次,初始化为[0; 0; 0]。在每个time step,可用的存储位置被加载到控制器中。

Action的生成:被选中的存储部分用于更新控制器状态,生成9个分数。在每个time step,得分最高的action根据上表生成标签序列。

位置更新:表示位置的向量根据action所在的级别进行更新:指向下一个单词(单词级)或者指向下一部分的第一个单词(句子级/段落级)。

三、数据集

使用法律文本数据集,包含犯罪信息和案情记录。每个样本中有一个或多个事件、地点、受害人不同的盗窃事件。样本长度从1500词到7000词不等,每个样本含有1~74个事件不等。样本总数为8299条。

四、训练

采用了监督学习结合强化学习的策略进行训练。结合强化学习是为了解决文本较长带来的问题。在处理一个样本后,模型将根据action的数量除以文本的长度获得奖励。

五、实验结果

原文地址:https://www.cnblogs.com/otaku-47/p/12333834.html

时间: 2024-11-08 10:20:58

论文阅读 | Event Identification as a Decision Process with Non-linear Representation of Text的相关文章

论文阅读(Xiang Bai——【TIP2014】A Unified Framework for Multi-Oriented Text Detection and Recognition)

Xiang Bai--[TIP2014]A Unified Framework for Multi-Oriented Text Detection and Recognition 目录 作者和相关链接 方法概括 创新点和贡献 方法细节 实验结果 问题讨论 总结与收获点 参考文献 作者和相关链接 作者 论文下载 白翔主页, 刘文予 方法概括 方法简述 这篇文章是作者CVPR2012(参考文献1,专门做检测,可以看看我之前的这篇博客)的方法的扩展,本文做的是端到端的问题(检测+识别). 采用的框架是

论文阅读(Lukas Neumann——【ICCV2017】Deep TextSpotter_An End-to-End Trainable Scene Text Localization and Recognition Framework)

Lukas Neumann--[ICCV2017]Deep TextSpotter_An End-to-End Trainable Scene Text Localization and Recognition Framework 目录 作者和相关链接 方法概括 方法细节 实验结果 总结与收获点 参考文献和链接 作者和相关链接 作者 论文下载 代码下载 方法概括 方法概述 该方法将文字检测和识别整合到一个端到端的网络中.检测使用YOLOv2+RPN,并利用双线性采样将文字区域统一为高度一致的变长

深度学习论文阅读笔记--Deep Learning Face Representation from Predicting 10,000 Classes

来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predicting 10,000 Classes 主要内容:通过深度学习来进行图像高级特征表示(DeepID),进而进行人脸的分类. 优点:在人脸验证上面做,可以很好的扩展到其他的应用,并且夸数据库有效性:在数据库中的类别越多时,其泛化能力越强,特征比较少,不像其他特征好几K甚至上M,好的泛化能力+不过拟合于

论文阅读方法

论文阅读方法 别先读摘要,从导言部分入手 找出大问题 这个领域正在设法解决什么问题? 以不超过5句话的篇幅总结背景 为解决这一"大问题",这一领域做过什么努力?之前的工作有什么局限?在作者看来,下一步需要做什么?简洁地解释为什么要进行这项研究. 找出具体问题 作者在他们的研究中究竟想回答什么问题?把这些问题(不一定是一个)写下来.如果是那种研究一个或者多个零假设的研究,把零假设辨别出来. 弄清解决手段 为了回答这些具体的问题,作者要怎么做? 阅读方法部分 为每一个实验画出一个图表,画出

Google File System 论文阅读笔记

核心目标:Google File System是一个面向密集应用的,可伸缩的大规模分布式文件系统.GFS运行在廉价的设备上,提供给了灾难冗余的能力,为大量客户机提供了高性能的服务. 1.一系列前提 GFS的系统构建针对其自身使用的特点在传统的分布式系统的基础上又进行了一些创新,基于的前提假设主要包括以下方面: 1.由于系统由廉价的商用机构成,组件失效被认为是一种常态,系统必须可以持续监控自身的状态. 2.系统存储以大文件为主,小文件也支持,但是没有进行特别的优化处理. 3.系统的工作负载主要包含

论文阅读--Scalable Object Detection using Deep Neural Networks

Scalable Object Detection using Deep Neural Networks 作者: Dumitru Erhan, Christian Szegedy, Alexander Toshev, and Dragomir Anguelov 引用: Erhan, Dumitru, et al. "Scalable object detection using deep neural networks." Proceedings of the IEEE Confere

论文阅读记录: Automatic Image Colorization sig16

sig论文阅读记录 Let there be Color!: Joint End-to-end Learning of Global and Local Image Priorsfor Automatic Image Colorization with Simultaneous Classification ( siggraph 2016 ) 论文简介 论文主页:http://hi.cs.waseda.ac.jp/~iizuka/projects/colorization/en/ 作者是来自Wa

论文阅读 A SIMPLE BUT TOUGH-TO-BEAT BASELINE FOR SEN- TENCE EMBEDDINGS

这篇论文提出了SIF sentence embedding方法, 作者提供的代码在Github. 引入 作为一种无监督计算句子之间相似度的方法, sif sentence embedding使用预训练好的词向量, 使用加权平均的方法, 对句子中所有词对应的词向量进行计算, 得到整个句子的embedding向量. 再使用句子向量进行相似度的计算. 在这篇论文之前, 也有与这篇文章思路非常相近的思路, 即都是使用词向量, 通过平均的方法得到句子向量, 只是在加权时权重计算方法上有区别. 具体来说有:

论文阅读 | FCOS: Fully Convolutional One-Stage Object Detection

论文阅读——FCOS: Fully Convolutional One-Stage Object Detection 概述 目前anchor-free大热,从DenseBoxes到CornerNet.ExtremeNet,以及最近的FSAF.FoveaBox,避免了复杂的超参数设计,而且具有很好的检测效果.本文作者提出了一种全卷积的单阶段目标检测算法,类似于语义分割的做法使用像素级预测.该检测框架简单有效,而且可以方便地用于其他任务. 简介 再啰嗦一下基于anchor的检测算法的缺陷: 1.检测