ECCV 2018 | 旷视科技提出统一感知解析网络UPerNet,优化场景理解

全球计算机视觉三大顶会之一 ECCV 2018(European Conference on Computer Vision)即将于 9 月 8 -14 日在德国慕尼黑拉开帷幕。届时,旷视首席科学家孙剑博士将带领团队远赴盛会,助力计算机视觉技术的交流与落地。本文介绍了旷视科技被 ECCV 2018 所接收的一篇论文,该论文提出了一种用于场景理解的统一感知解析网络——UPerNet。

论文名称:《Unified Perceptual Parsing for Scene Understanding》

  • 论文链接:https://arxiv.org/abs/1807.10221
  • 代码链接:https://github.com/CSAILVision/unifiedparsing

目录

  • 导语
  • 背景
  • 设计思想
  • 定义 UPP
  • Broden+
  • 指标
  • UPerNet
  • 背景
  • 架构
  • 实验
  • 结果
  • 视觉知识
  • 结论
  • 参考文献

导语

人类对世界的视觉理解是多层次的,可以轻松分类场景,检测其中的物体,乃至识别物体的部分、纹理和材质。在本文中,旷视科技提出一种称之为统一感知解析(Unified Perceptual Parsing/UPP)的新任务,要求机器视觉系统从一张图像中识别出尽可能多的视觉概念。同时,多任务框架 UPerNet 被提出,训练策略被开发以学习混杂标注(heterogeneous annotations)。旷视科技在 UPP 上对 UPerNet 做了基准测试,结果表明其可有效分割大量的图像概念。这一已训练网络进一步用于发现自然场景中的视觉知识。

背景

人类视觉系统一眼即可从一张图像中提取大量语义信息。人类不仅可以立即解析其中的物体,还能识别细节属性,比如其部分、纹理和材质。如图 1 所示,这是一间起居室,有着很多不同物体,比如一张咖啡桌,一幅画,以及墙面。同时,我们还看到,这是一张四腿咖啡桌,桌面之上有一块桌垫,以及桌子是木质的,沙发表层是针织的。可见,从材质、纹理的视觉感知到物体及其部分的语义感知,我们对这一视觉场景的描述是多层次的。

图 1:针对 UPP 训练的神经网络可一次性解析不同感知层次的视觉概念,比如场景、物体、部分、纹理、材质等。

近年来,由于深度神经网络和大型数据集的发展,计算机视觉识别能力取得重大进步,不断逼近甚至超越人类水准。但是,视觉识别任务不同,其研究也各不相同。比如,物体检测和场景识别已达到人类水平,解析和分割的精确度可至像素级;纹理和材质的感知与识别同样有着充分的研究。

设计思想

在人类视觉系统中,上述任务的完成是一步到位的,这就抛给计算机视觉模型一个问题:一个神经网络是否可以同时解决若干个不同的视觉任务。本文把这个问题以一项新任务的形式提出,称之为统一感知解析(Unified Perceptual Parsing/UPP),并给出一种全新的学习方法解决它。

UPP 有若干个挑战。首先,没有一个涵盖所有层面视觉信息的标注数据集。不同的数据集是针对一项项特定任务而打造的。比如 ADE20K 数据集用于场景解析,DTD 数据集用于纹理识别,OpenSurfaces 数据集用于材质和表面识别。其次,不同感知层面的注解也是混杂的。比如,ADE20K 数据集的注解是像素级的,而 DTD 数据集则是图像级的。

为解决上述挑战,本文提出一个新框架,整合不同数据集之间的差异性,并学习联合检测不同视觉概念。一方面,本文从每次迭代中随机采样一个数据源,并只更新相关层,以从数据源中推理概念。这样的设计会规避不稳定行为,比如某一特定概念注解的梯度带有噪音。

另一方面,该框架借助单一网络特征的分层属性,即,对于高层语义概念比如场景分类,分类器只基于带有较高级语义信息的特征图而构建;对于较低级语义信息,比如物体和材质分割,分类器只基于所有阶段的或者带有低级语义信息的特征图而构建。进而,本文提出一种训练方法,可使网络只使用图像级的注解即可预测像素级的纹理标签。

本文贡献可归纳为如下 3 个方面:1)提出一种新解析任务——统一感知解析(UPP),它需要系统一次性解析多层次视觉概念;2)提出一种带有层级结构的全新网络——UPerNet,可学习不同图像数据集中的差异化数据;3)该网络可实现联合推理,并发掘图像之中丰富的视觉知识。

定义 UPP

UPP 任务是指从一张给定图像中识别出尽可能多的视觉概念,从场景标签,物体,到其部分、纹理和材质,视觉概念是多层次的。该任务依赖于不同训练数据的可用性。由于没有一个现有数据集可满足条件,本文通过整合若干个图像标注源而成一个新数据集——Broden+。

数据集

新数据集构建的基础是 Broadly Densely Labeled Dataset(Broden),这是一个包含不同视觉概念的混杂数据集。但是由于其设计初衷,Broden 并不适用于分割网络的训练。为此本文从 4 个方面做出优化,得到了 Broden+ 数据集:

  1. 去掉不同数据集的相似概念;
  2. 只保留至少出现在 50 张图像以上、在整个数据集中至少包含 50000 像素的物体类别;
  3. 手动去掉 OpenSurfaces 数据集中的下采样标签;
  4. 把 ADE20K 数据集中 400+ 个场景标签映射到 Places 数据集中的 365 个标签。

这样,经过标准化工作而得到的新数据集共包含 57095 张图像,其中 22210 张来自 ADE20K,10103 张来自 Pascal-Context 和 Pascal-Part,19142 张来自 OpenSurfaces,5640 张来自 DTD,如表 1 所示。图 3 是一些实例。

表 1:Broden+ 数据集中每一标签类型的统计信息,其评估指标也已给出。

图 3:Broden+ 数据集实例。

指标

一般来讲,分割任务的衡量指标是 P.A. 和 mIoU。为了解决 mIoU 不计数未标注区域的预测的问题,使其更适合部分分割等任务,本文在一些特定任务中使用 mIoU,但也计数背景区域的预测,这一新指标称为 mIoU-bg。

具体而言,对于借助 ADE20K,Pascal-Context,OpenSurfaces 数据集的物体和材质解析任务,使用评估标准 P.A. 和 mIoU;对于物体部分,则使用 P.A. 和 mIoU-bg;对于场景和纹理分类,则使用 top-1 精度。

UPerNet

背景

当前最优的分割网络主要基于全卷积网络(FCN)。由于缺乏足够的训练样本,分割网络通常初始化自针对图像分类任务的预训练网络。为使语义分割实现高分辨率预测,dilated conv 技术被提出,在缓解下采样副作用的同时,保证了感受野的扩充率;使用这一技术的网络也成为了语义分割任务的标准范式。但是针对本文提出的 UPP 任务,这一方法有 2 个缺陷:

  1. 最近提出的深度卷积网络虽在图像分类和语义分割任务中大获成功,但层数往往达到数十、数百层;其设计结构如此复杂,以至于在网络早期阶段由于感受野较大和计算复杂度较低的原因,下采样率快速增长。
  2. 这种网络只利用了其中最深的特征图。使用高级语义特征分割高级概念(比如物体)是合理的,但是并不适合分割多层次的感知属性,尤其是低级概念(比如纹理、材质)。

有鉴于此,本文提出了多任务新框架 UPerNet。

架构

图 4:UPerNet 架构图。

UPerNet(Unified Perceptual Parsing Network)网络架构如图 4 所示,它基于特征金字塔网络(FPN)。尽管理论上讲,深度卷积网络的感受野足够大,但实际可用的要小很多。为克服这一问题,本文把 PSPNet 中的金字塔池化模块(PPM)用于骨干网络的最后一层,在其被馈送至 FPN 自上而下的分支之前。结果实验证明,在带来有效的全局先验表征方面,PPM 和 FPN 架构是高度一致的。

本文使用多个语义层次的特征。由于图像级信息更适合场景分类,Scene head 直接被附加到 PPM 模块之后的特征图。Object head 和 Part head 被附加到与来自 FPN 的所有层相融合的特征图。Material head 被附加到 FPN 中带有最高分辨率的特征图。Texture 被附加到 ResNet 中的 Res-2 模块,并在整个网络完成其他任务的训练之后进行优化,这一设计背后的原因有 3 个:

  1. 纹理是最低级的感知属性,因此它纯粹基于明显的特征,无需任何高级的信息;
  2. 正确预测纹理的核心特征是在训练其他任务时被隐式学习的;
  3. 这一分支的感受野需要足够小,因此当一张正常大小的图像输入网络,它可以预测不同区域的不同标签。

实验

本节首先给出了 UPerNet 在原始语义分割任务和 UPP 任务上的量化研究,接着将这一框架用于发掘场景理解背后的视觉常识知识。

结果

整体架构。为证明 UPerNet 在语义分割上的有效性,本文给出了不同设置下借助物体标注在 ADE20K 数据集上的结果,如表 2 所示。

表 2:ADE20K 数据集上该方法(基于 ResNet-50)与当前最优方法的对比分析。

混杂标注的多任务学习。本文给出了在分离或融合的不同标注集上的训练结果。

表 3:UPerNet 在 Broden+ 数据集上的结果。

量化结果。本文给出了 UPerNet 的量化结果。如图 5 所示。UPerNet 可统一结构性视觉知识,同时有效预测层级输出。

图 5:UPerNet(ResNet-50)在验证集上的预测。

视觉知识

UPP 要求模型从一张图像之中识别尽可能多的视觉概念,如果模型成功做到这一点,就可以发现隐藏在现实世界之下的丰富视觉知识,回答诸如「这个杯子的材质是什么」的问题,有助于机器视觉系统更好理解周遭世界。

本节证明,在 Broden+ 数据集上训练的 UPerNet 可发现多层次的结构性知识。研究者以分层的方式定义了若干类关系,如表 4 所示。

表 4:UPerNet 发掘的视觉知识。

结论

本文定义了名为统一感知解析(UPP)的识别任务,从场景、物体、部分、材质到纹理,其试图一次性解析图像的多层次视觉概念。一个多任务网络和处理混杂标注的训练策略被开发和测试。本文进而利用已训练的网络发现场景之中的视觉知识。

参考文献

  • Peng, C., Xiao, T., Li, Z., Jiang, Y., Zhang, X., Jia, K., Yu, G., Sun, J.: Megdet:A large mini-batch object detector. arXiv preprint arXiv:1711.07240 (2017)
  • Zhao, H., Shi, J., Qi, X., Wang, X., Jia, J.: Pyramid scene parsing network. In:IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). (2017) 2881–2890
  • Chen, L.C., Papandreou, G., Kokkinos, I., Murphy, K., Yuille, A.L.: Deeplab:Semantic image segmentation with deep convolutional nets, atrous convolution,and fully connected crfs. arXiv preprint arXiv:1606.00915 (2016)
  • Kirillov, A., He, K., Girshick, R., Dollr, P.: Mscoco challenge 2017: stuff segmentation,team fair. (2017)
  • Zhou, B., Lapedriza, A., Xiao, J., Torralba, A., Oliva, A.: Learning deep features for scene recognition using places database. In: Advances in neural information processing systems. (2014) 487-495

原文地址:https://www.cnblogs.com/alan-blog-TsingHua/p/9736167.html

时间: 2024-10-07 20:56:37

ECCV 2018 | 旷视科技提出统一感知解析网络UPerNet,优化场景理解的相关文章

「杂谈」旷视科技新产品监视学生上课不是什么好事儿

旷视科技新产品监视学生上课不是什么好事儿! 9月2号,一张带有"MEGVII旷视"图标的视频监控图像在社交网络上疯传. 图中显示,两名在教室中的女生身边,显示出了相应的课堂行为数据,比如趴桌子.玩手机.睡觉.听讲.阅读.举手等等.伴随这张图,还有大量网友严厉的指责与质疑,认为这样的技术不应该出现在课堂中. 对于旷世科技公司的这种所谓的人工智能高科技视频监控技术进入课堂的做法或者说是想法,笔者观点鲜明:反对,反对这种无节操无底线完全不顾学生隐私的人工智能技术的做法.这是为了发展人工智能而

2018旷视面试

一.数字组合 给定一个数组a,其中元素各不相同且都是0~9之间的数字. 给定一个数字n,要求用数组a中的数组组合出一个大于n的十进制数字来,要求组合出来的数字尽量少,数组a中的元素可以使用多次. 关键点: 大于n 这个问题没想到需要扫描两遍,扫描一遍只能得到等于n的数字. import java.util.*; import java.util.stream.Collectors; public class Main { Random r = new Random(0); int[] gener

主宰尖端技术产业升级,旷视剑指世界第一

近日,国内人工智能公司旷视科技(Face++)完成约为 4.6 亿美元的C 轮融资,由中国国有资本风险投资基金领投,蚂蚁金服.富士康集团战略投资,中俄基金.阳光保险集团.SK集团.渤海华美等参投,刷新了人工智能领域的投资记录.对拥有核心刷脸识别技术的旷视科技来说,这一轮巨额融资的完成也代表着其刷脸识别技术将加速延展至更多企业和行业,得到更为广泛的运用. 巨额融资背后是旷视深厚的AI技术内功 在刚刚结束的全球顶级计算机视觉竞赛MS COCO和Places中,旷视科技的团队击败微软谷歌和Facebo

旷视俞刚跳槽腾讯:曾多次带队夺冠COCO,称看好腾讯的应用场景

昨天晚上,有同学在新智元小程序曝出一则惊人消息:旷视大佬俞刚加盟腾讯 PCG 光影研究室,引发不少吃瓜群众热议:  这则消息最早是在知乎曝出的,有网友提问:如何看待旷视 detection 组组长俞刚跳槽腾讯 PCG 光影研究室? 目前这个问题已经被浏览了超过 50 万次,可见关注度还是蛮高的.其中,一条"元峰"的回答获得高赞.他表示自己同在 CV 融资四小龙工作,且即将离职,并分享了自己的感想.他表示:前几年一套人脸识别算法能卖上千万,现在只有 40 万了.他还谈到了 AI 创业公司

ECCV 2018 | UBC&腾讯AI Lab提出首个模块化GAN架构,搞定任意图像PS组合

通常的图像转换模型(如 StarGAN.CycleGAN.IcGAN)无法实现同时训练,不同的转换配对也不能组合.在本文中,英属哥伦比亚大学(UBC)与腾讯 AI Lab 共同提出了一种新型的模块化多域生成对抗网络架构--ModularGAN,生成的结果优于以上三种基线结果.该架构由几个可重复利用和可组合的模块组成.不同的模块可以在测试时轻松组合,以便在不同的域中高效地生成/转换图像.研究者称,这是首个模块化的 GAN 架构. 据了解,腾讯 AI Lab 共有 19 篇论文入选 ECCV 201

红灯检测宇视科技专利分析与总结2

进一步地,如所述信号灯呈横向排列,本发明所述步骤S2包括:S21.对所述信号灯所在位置区域进行列扫描,判断所扫描的列是否存在信号灯的边界像素.由于步骤S1中已经获得了信号灯的边缘信息,边缘信息即图像中的像素哪些是信号灯的边界像素.通过对图像进行列扫描来判断扫描的列是否包含信号灯的边界像素.S22.如存在信号灯的边界像素的列的前一列并不存在信号灯的边界像素,则将存在信号灯的边界像素的列设定为起始列.S23.如存在信号灯的边界像素的列的后一列并不存在信号灯的边界像素,则将存在信号灯的边界像素的列设定

红灯检测宇视科技专利分析与总结1

宇视科技发布了新专利 一种信号灯图像处理方法及其装置 公开(公告)号 103679733A 1.宇视使用的是边缘检测+分割来识别红灯: S1 .检测摄像机采集的一帧图像中的信号灯的边缘信息 : S2 . 根据所述信号灯的边缘信息, 从所述图像中分割出信号灯区域 接下来是红灯描红也就是文档中所说颜色强化模块: S3颜色强化模块, 用于对所述图像中的信号灯区域进行颜色强化 2. 细节补充方法: 从宇视的专利里还有些细节上的描述 1.颜色强化后的信号灯区域进行边缘模糊处理,这一步应该是处理红灯光晕用的

2018年全国卷Ⅰ卷理科数学解析

2018年全国卷Ⅰ卷理科数学解析 原文地址:https://www.cnblogs.com/wanghai0666/p/9192454.html

2018年全国卷Ⅰ卷文科数学解析

2018年全国卷Ⅰ卷文科数学解析 原文地址:https://www.cnblogs.com/wanghai0666/p/9192463.html