标注数据少用90%,造假效果却更逼真

你可还记得BigGAN问世之初,直接将图像生成的逼真度提高了一个Level,引来Twitter上花样赞赏?

如今它不止被超越,而且是被轻松超越。

“轻松”在哪呢?

S³GAN达到这么好的效果,只用了10%的人工标注数据。而老前辈BigGAN,训练所用的数据100%是人工标注过的。

如果用上20%的标注数据,S³GAN的效果又会更上一层楼。

标注数据的缺乏,已经是帮GAN提高生成能力,拓展使用场景的一大瓶颈。如今,这个瓶颈已经几乎被打破。

现在的S³GAN,只经过了ImageNet的实验,是实现用更少标注数据训练生成高保真图像的第一步。

接下来,作者们想要把这种技术应用到“更大”和“更多样化”的数据集中。

不用标注那么多

为什么训练GAN生成图像,需要大量数据标注呢?

GAN有生成器、判别器两大组件。

其中判别器要不停地识破假图像,激励生成器拿出更逼真的图像。

而图像的标注,就是给判别器做判断依据的。比如,这是真的猫,这是真的狗,这是真的汉堡……这是假图。

可是,没有那么多标注数据怎么办?

谷歌和ETH苏黎世的研究人员,决定训练AI自己标注图像,给判别器食用。

自监督 vs 半监督

要让判别器自己标注图像,有两种方法。

一是自监督方法,就是给判别器加一个特征提取器 (Feature Extractor) ,从没有标注的真实训练数据里面,学到它们的表征 (Feature Representation) 。

对这个表征做聚类 (Clustering) ,然后把聚类的分配结果,当成标注来用。

这里的训练,用的是自监督损失函数。

二是半监督方法,也要做特征提取器,但比上一种方法复杂一点点。

在训练集的一个子集已经标注过的情况下,根据这些已知信息来学习表征,同时训练一个线性分类器 (Linear Classifier) 。

这样,损失函数会在自监督的基础上,再加一项半监督的交叉熵损失 (Cross-Entropy Loss) 。

预训练了特征提取器,就可以拿去训练GAN了。这个用一小部分已知标注养成的GAN,叫做S²GAN。

不过,预训练也不是唯一的方法。

想要双管齐下,可以用协同训练 (Co-Training) :

直接在判别器的表征上面,训练一个半监督的线性分类器,用来预测没有标注的图像。这个过程,和GAN的训练一同进行。

这样就有了S²GAN的协同版,叫S²GAN-CO。

升级一波

然后,团队还想让S²GAN变得更强大,就在GAN训练的稳定性上面花了心思。

研究人员说,判别器自己就是一个分类器嘛,如果把这个分类器扩增 (Augmentation) 一下,可能疗效上佳。

于是,他们给了分类器一个额外的自监督任务,就是为旋转扩增过的训练集 (包括真图和假图) ,做个预测。

再把这个步骤,和前面的半监督模型结合起来,GAN的训练变得更加稳定,就有了升级版S³GAN:

架构脱胎于BigGAN

不管是S²GAN还是S³GAN,都借用了前辈BigGAN的网络架构,用的优化超参数也和前辈一样。

不同的是,这个研究中,没有使用正交正则化 (Orthogonal Regularization) ,也没有使用截断 (Truncation) 技巧。

△BigGAN的生成器和鉴别器架构图

训练的数据集,来自ImageNet,其中有130万训练图像和5万测试图像,图像中共有1000个类别。

图像尺寸被调整成了128×128×3,在每个类别中随机选择k%的样本,来获取半监督方法中的使用的部分标注数据集。

最后,在128核的Google TPU v3 Pod进行训练。

超越BigGAN

研究对比的基线,是DeepMind的BigGAN,当前记录的保持者,FID得分为7.4。

不过,他们在ImageNet上自己实现的BigGAN,FID为8.4,IS为75,并以此作为了标准。

在这个图表中,S²GAN是半监督的预训练方法。S²GAN-CO是半监督的协同训练方法。

S³GAN,是S²GAN加上一个自监督的线性分类器 (把数据集旋转扩增之后再拿给它分类) 。

其中,效果最好的是S³GAN,只使用10%由人工标注的数据,FID得分达到8.0,IS得分为78.7,表现均优于BigGAN。

如果你对这项研究感兴趣,请收好传送门:

论文:

High-Fidelity Image Generation With Fewer Labels
https://arxiv.org/abs/1903.02271

文章开头的这些照骗展示,就出自论文之中:

第一行是BigGAN作品,第二行是S³GAN新品,你猜对了吗?

另外,他们还在GitHub上开源了论文中实验所用全部代码:
https://github.com/google/compare_gan

原文地址:https://www.cnblogs.com/alan-blog-TsingHua/p/10564595.html

时间: 2024-11-10 07:11:42

标注数据少用90%,造假效果却更逼真的相关文章

Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally如何使用尽可能少的标注数据来训练一个效果有潜力的分类器

作者:AI研习社链接:https://www.zhihu.com/question/57523080/answer/236301363来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 今天我给大家介绍一下 CVPR 2017 关于医学图像处理的一篇比较有意思的文章,用的是 active learning 和 incremental learning 的方法. 今天分享的主要内容是,首先介绍一下这篇文章的 motivation,就是他为什么要做这个工作:然后介绍一下他

封装的数据请求加上风火轮的效果

把数据请求和风火轮的效果封装成一个方法,用的时候直接调用这个方法就可以 + (void)startRequest:(NSString*)method baseurl:(NSString*)baseurl param:(NSDictionary*)params success:(DKSuccess)success failure:(DKFailure)failure showProgress:(BOOL)progress{ NSAssert(params, @"params is nil.&quo

目标检测 的标注数据 .xml 转为 tfrecord 的格式用于 TensorFlow 训练

将目标检测 的标注数据 .xml 转为 tfrecord 的格式用于 TensorFlow 训练. import xml.etree.ElementTree as ET import numpy as np import os import tensorflow as tf from PIL import Image classes = ["aeroplane", "bicycle", "bird", "boat", &quo

SPH00000562发现结转数量少了90

--查自身结转数量是否不正确select shqjzhshl,cwjcsl+cksl-bqrsh,bqrsh-cksl, from ymjzhk where spid='SPH00000562' order by jzhh desc--检查结转库与流水库结转数据是否一致select jzhh,sum(rkshl),sum(chkshl),sum(rkshl)-sum(chkshl) From splsk where spid='SPH00000562' group by jzhh order b

数据过于完美就是造假?too sample,GDP数据更加完美!

这两天,天猫双十一交易额造假的事情持续发酵,因为曲线过于完美,所以受到了很多人的质疑.甚至有些人还用 Python 进行了拟合运算,最终的拟合结果和天猫发布的数据非常吻合,进而甚至已经预测出了明年双十一的预期交易金额,这可真的是出其不意,天外飞瓜啊! 下图就是通过多项式拟合得到的曲线,看起来还真是完美呢 不过天猫官方也出面澄清了:数据造假?没!必!要!哈哈哈,这真的是个门外吃瓜群众难以分辨的事情. 那么是否真的是当数据完美符合某种数学公式时,就会存在人为干涉的情况呢. 既然我们一时之间难以分辨天

jsp页面数据分页模仿百度分页效果

<%@page import="web09.shop.DBUtil"%> <%@page import="java.sql.ResultSet"%> <%@page import="java.sql.PreparedStatement"%> <%@page import="java.sql.Connection"%> <%@ page language="java

天下数据:浅析90创业者的吹牛之道

如今,"吹牛"几乎成为互联网创业者的必备技能之一.当余佳文这个名字因为"一亿元"利润的一年之约再一次出现在大众视野时,舆论导向再次将90后创业者的诚信问题引到风口浪尖.就说最近小天家推出的天下云-香港云主机,广告写的多么好多么好,但是水分我相信也是有一点点的. 虽然提倡"大众创业.万众创新",但现有资金规模和渠道比较狭窄给新一代创业者带来更大的竞争压力.对比过去的互联网创业者,创业群体人数变大但成功率并没有明显提高.这给创业者带来不少压力.同时,

差分方程模型

第七章  差分方程模型 教学目的:通过经济学中蛛网模型的实例讨论,介绍一类动态离散模型------差分方程模型的建模方法. 教学要求:1 让学生学会运用差分思想建立数学模型的基本方法,进一步熟悉数学建模的基本过程. 2使学生掌握运用解析方法或数学软件求解差分方程模型. 3帮助学生运用差分方程的平衡点及其稳定性有关理论来分析实际问题. 教学重点:1蛛网模型的图形描述,并通过建立差分方程模型对其进行理论解释. 2运用差分思想建立数学模型和求出模型解析表达式或数值解. 教学难点:1差分方程在稳定点附近

人工智能数据标注这些年:从幕后到前台丨曼孚科技

"你了解人工智能行业吗?"? 10个人中可能有9个人会给出肯定的回答. "你了解数据标注行业吗?" 10个人中可能有9个人会茫然地摇头. 与处在聚光灯中心的人工智能科技公司不同,数据标注行业长期处于聚光灯之外的灰色地带,很长一段时间内都是被边缘化乃至低视的一个存在. 不过,随着时代发展带来需求的改变,数据标注行业也在发生着日新月异的变化,开始从幕后走向前台. 一.幕后:粗放与混乱交织 数据标注行业里流传着这样的一段话:"有多少智能,就有多少人工"