BaiXiang——【CVPR2016】Multi-Oriented Text Detection with Fully Convolutional Networks
目录
- 作者和相关链接
- 方法概括
- 方法细节
- 创新点和贡献
- 实验结果
- 问题讨论
- 总结与收获点
-
作者和相关链接
- 作者:
-
方法概括
- Step 1——文本块检测: 先利用text-block FCN得到salient map,再对salient map进行连通分量分析得到text block;
- Step 2——文本线形成: 对text-block利用MSER提取候选字符区域,利用候选字符区域估计整个block的方向,再结合候选字符的bounding box生成每个每条文本行;
- Step 3——文本线过滤: 利用centroid FCN得到每条文本行中的字符的质心,利用质心过滤非文本行;
以下为细化的每个步骤示例图:
Figure 1. The procedure of the proposed method. (a) An input image; (b) The salient map of the text regions predicted by the TextBlock FCN; (c) Text block generation; (d) Candidate character component extraction; (e) Orientation estimation by component projection; (f) Text line candidates extraction; (g) The detection results of the proposed method.
-
方法细节
-
text blcok 检测
- Text-block FCN的网络结构
-
选用VGG16的前5层卷积层,去掉后面的全连接层。在每个卷积层后都接上一个deconv操作(由1*1的卷积+上采样构成)。再把5个deconv得到的maps用1*1的卷积进行 fusion,并经 过一个sigmoid层得到salient map。
-
-
- Text-block FCN生成salient map的示例图
-
从第1层到第5层的细节越来越少,global的信息越来越强。
-
-
- 普通方法得到的的salient map和由text-block FCN得到的salient map对比
-
-
-
- text block FCN用到的训练图
-
-
-
文本线生成
- MSER提取字符候选区域
- 在每个text block里进行MSER提取(不要求MSER把所有字符都提取出来,允许漏检和存在噪声);
- 利用候选区域的面积、长宽比过滤大部分噪声(仅在text block里提取,噪声不多,比较单一);
- projection方法估计直线方向
- 在text block里找到最优的h和θ(可以确定一条直线),使得该直线穿过的component个数最多;
- 本方法的假设条件:第一,同一block中,所有文本线的方向一致;第二,文本线是近直线的;
- MSER提取字符候选区域
-
-
-
- 候选文本线生成
- 对每个block里的所有component进行聚类,聚类条件如下:
- 每个grouping生成bounding box
- 沿着block(记为α)的方向θr(α)的方向画一条直线l,该直线经过这个grouping中的所有component的中心(所有component中心中随便取一个或者取中间那个?);
- 将直线l与α的边缘点的交点集合记为P(α是图(b)中的所有白色点的集合),即如下图中的最左边和最右边的两个红点。
- 利用点集P和每个componet的bounding box生成整条文本线的bounding box(求并集)
- 对每个block里的所有component进行聚类,聚类条件如下:
- 候选文本线生成
-
-
文本线噪声过滤
- character-centroid FCN获得每条文本线中的所有可能存在的字符的质心
- 模型结构:从text-block FCN的5层卷积→3层卷积(text-block FCN的缩小版)
- 训练样本:距离字符中心(ground Truth中的字符中心?)距离小于字符高度的15%的点都算作正样本点,其他点算作负样本点、
- 非文本线噪声过滤
- 质心概率的均值过滤
- 几何角度过滤(近直线)
- 质心概率的均值过滤
- character-centroid FCN获得每条文本线中的所有可能存在的字符的质心
-
创新点和贡献
- 贡献
- 用FCN生成文字/非文字的salient map;
- 利用局部(Component based )和全局(context of the text block ) 的信息生成文本线;
- 用FCN得到字符的质心;
- idea的出发点
- FCN既然可以作像素级的标定,那么可以用来得到每个像素属于文字的概率(salient map),也可以用来得到每个像素是字符质心的概率(centroid map );
- 单个字符容易受背景干扰,容易造成漏检或者误检,而文本块相对于字符不但区分性更强(更容易与背景区分开),而且更稳定(一般比较完整)。因此,如果能把单个字符的信息(局部,细节)与上下文信息(文本线)结合起来,就能使检测更加鲁棒;
- 贡献
-
实验结果
- MSRA-TD500
- ICDAR2015
- ICDAR2013
- 示例图
- 失败的图
- MSRA-TD500
-
问题讨论
- 为什么FCN可以用来做文字?有什么好处?
- FCN可以融合局部(字符)和全局信息(文本线);
- FCN是端到端训练;
- FCN由于去掉了全连接层后在像素级的标定很快,而且文字本身也容易获得像素级标定的训练数据;
- 为什么这篇文章的方法可以解决多方向的文字检测问题?
- 文章中决定文字方向的方法是text block(记为α)上利用MSER检测候选字符,再在整个block上找到一条直线θr(α),使得经过的候选字符个数最多。由于直线θr(α)的两个参数h和θ都没有约束限制,因此可以检测任意方向的文字;
-
- deconv中1*1的卷积作用是什么?
- 1*1的卷积得到的map大小和原图是一样的,所以作用一般有三个。一是为了把多通道的信息融合起来;二是为了升维或降维(把上一层的channel数变多或者变少);三是有时候1*1的卷积是在做pixel-wise的prediction。
- deconv中上采样的作用是是什么?
- 因为每一层卷积得到的map大小是不同的,而且和原图相比都更小,在fusion的时候要得到和原图相同大小的map所以要进行上采样。这个上采样的核(参数)在FCN中是可以学习的,初始化的时候可以选择用双线性插值;
- 得到的text block为什么不能直接看成是文本线,为什么还要单独一步专门做文本线生成?
- 第一,当多条文本线靠得比较近时,容易被一个block包含;第二,text block得到的区域范围太粗糙,并没有准确的文本位置;
- 文本线方向估计的这个projection的算法实际是如何操作的?(遍历h和θ?)
- 在文本线过滤中得到的质心图是一个概率图,如下图所示,是一团白色区域,而不是唯一的一个点,每个字符最终是由一个质心表示么?如何确定这个唯一的质心?(使用类似于meanshift,nms找到极值点?)
- deconv中1*1的卷积作用是什么?
-
总结与收获点
- 把text block(global)和character(local)的特点综合起来,这个想法非常好,要把Faster RCNN与component的方法结合起来可以参考这篇文章的一些思想。
- 这是第一个用FCN来做文字的文章,虽然准确率高,但是pixel wise还是比较慢的。文字和其他目标检测不大一样,太细了。需要找其他方法来检测text block。
时间: 2024-10-23 00:05:07