【深度学习系列】一起来参加百度 PaddlePaddle AI 大赛吧!

  写这个系列写了两个月了,对paddlepaddle的使用越来越熟悉,不过一直没找到合适的应用场景。最近百度搞了个AI大赛,据说有四个赛题,现在是第一个----综艺节目精彩片段预测 ,大家可以去检测一下最近的学习成果啊!还有丰厚的奖金10W元软妹币哦!



这是啥比赛?

  看比赛的要求,是希望参赛选手使用PaddlePaddle深度学习框架、利用BROAD数据集、利用K-Lab,着手解决行业中的真实问题,从而让AI真正应用于行业、真正服务于行业。本次大赛,我们将目光放在电视综艺行业,希望选手们利用BROAD中全球首创的公开精彩片段标注数据集,帮助电视综艺的后期剪辑工作者们在给定的任一段长视频中识别出“精彩片段”——想为剪辑师们的辛苦工作给予些小小的辅助,别再连续熬夜啦

  详细的赛题背景请戳这里



数据集是啥?

   在11月百度世界大会 AI 技术与平台论坛上,百度3D视觉首席科学家杨睿刚就宣布推出了百度 AI 公开数据集计划——BROAD(Baidu Research Open-Access Dataset),并宣布首批室外场景理解、视频精彩片段、阅读理解3个数据集即日起对公众公开。

  这些数据或是首次发布的,或是目前国际同类型公开数据集中最大的:

  • 室外场景理解数据集是世界范围内第一个带像素级语义标签的室外3D图像数据,来源于百度自动驾驶事业部。该数据集试图将感知能力从物体级感知升级到像素级感知,进而了解图片中所有像素的属性和来源,目标实现更精准、安全的自动驾驶。
  • 视频精彩片段数据集主要来源于爱奇艺。视频类型为综艺节目,目前囊括近1500个长视频,视频总时长约1200小时,还从中手动收取出18000个精彩小视频,同时能够提供视频帧的图片特征序列,是全球首创的公开精彩片段标注数据集。
  • 百度阅读理解数据集 DuReader是迄今为止规模最大的中文公开领域阅读理解数据集。数据集基于真实应用需求,所有问题都来源于百度搜索用户的真实问题,文档来自全网真实采样的网页文档和百度知道 UGC 文档,答案基于问题与文档由人工撰写生成。数据集标注了问题类型、实体和观点等丰富信息,弥补了现有主流数据集对于观点类问题覆盖不足的问题。首批发布的阅读理解数据集包含20万问题、100万文档及42万人工撰写的优质答案,并提供开源基线系统。DuReader 将为阅读理解技术研究提供有力支撑,希望加速相关技术和应用的发展。

  在这个比赛中,我们用的是第二个:视频精彩片段数据集。戳这里可以下载!不过文件太大了,训练集有97G,验证和测试各有8,8G,在本机上做明显不太现实,所以kesci直接提供了数据集,在指定路径下就可以看到啦。我们可以直接运用Kesci的平台K-Lab来进行模型训练~大家可以在这里看一下提供的视频样例和数据集的说明~

  一个小tips:大家一定要先报名,再创建比赛项目才能查看数据集哦!不然看不到!亲身经历,略坑 - - 而且一定得用PaddlePaddle,会检测你有没有用的 - -

  



如何报名?

  在Kesci官网注册,然后报名,就可以啦!提交结果的时候要以团队的名义提交哦!团队可以是一个人,也可以组队,大家可以在比赛的qq群里拉人组队哦!(见比赛介绍



赛题、日程与奖项

  本次大赛分为两个阶段。

   第一比赛阶段:2017年12月28日0:00:00--2018年2月4日23:59:59

   此阶段中,K-Lab使用百度云计算优化型CPU,4核8GB内存。K-Lab单次运行时长为3小时。

任务:

训练:使用已抽取的约10%的视频数据训练集(共124个视频),学习视频帧的图片特征序列数据,在K-Lab中训练精彩片段检测模型。

验证:使用验证集的数据与开放的测评脚本K-Lab,评价训练好的模型在验证集视频上的预测结果。

输出结果:对测试集中的视频使用训练好的模型,得出预测结果,通过K-Lab上传结果到测评系统得到评价分数。

2018年1月14日23:59:59,第一比赛阶段中期截止,分数排名第一的队伍获得鼓励奖。

2018年1月15日0:00:00起,用户通过K-Lab上传结果的同时也需上传K-Lab notebook报告。

2018年2月4日23:59:59,第一比赛阶段截止,且报名截止。选拔使用了PaddlePaddle训练模型且上传了K-Lab notebook报告的队伍中,分数前50名的队伍晋级到第二比赛阶段。

第二比赛阶段:2018年2月9日0:00:00--2018年3月15日23:59:59

此阶段中,K-Lab的配置为GPU(百度免费提供的英伟达深度学习开发卡,CPU:6核40GB),单次运行时长为3小时。选手无需任何申请或安装,直接打开K-Lab在其中使用即可。

任务:

训练:选手必须使用PaddlePaddle训练模型,使用全量视频数据训练集(共1262个视频),学习视频帧的图片特征序列数据,在K-Lab中训练精彩片段检测模型。

验证:使用验证集的所有数据与开放的测评脚本K-Lab,评价训练好的模型在验证集视频上的预测结果。

输出结果:对测试集中的所有视频使用训练好的模型,得出预测结果,通过K-Lab上传结果与K-Lab notebook报告到测评系统得到评价分数。

2018年2月25日23:59:59,第二比赛阶段中期截止,分数排名第一的队伍获得鼓励奖。

2018年3月15日23:59:59,第二比赛阶段截止,百度专家对分数排名前10名的队伍评审K-Lab notebook报告,评选出一名一等奖(5万人民币),2名二等奖(各2万人民币),3名三等奖(各3千人民币)。



写在最后

  其实刚看到这个题目的时候觉得有点难,因为这个属于比较新的领域,时序视频检测这个方向大家可以多搜搜论文,看看别人怎么实现的,先试着用最简单的方法做一下。不太建议完全不懂机器学习的人报名,小白可以先参加一些基础的练练手,如果对机器学习和深度学习有些了解的可以报名试试看。目前排名第一的大神已经开放了随机测试的视频,大家可以先用这个代码跑一下,看看提交的格式是啥样的。不管怎么说,重在参与啦~我也报名啦,大家一起来玩啊~而且看到有好几个大佬也参赛了,大家参与一下,体验一下就好哈哈。后续还有nlp、安防领域的,可以这次先练练手,后面的也参加挑战一下^_^!

原文地址:https://www.cnblogs.com/charlotte77/p/8192571.html

时间: 2024-09-30 21:09:42

【深度学习系列】一起来参加百度 PaddlePaddle AI 大赛吧!的相关文章

【深度学习系列】关于PaddlePaddle的一些避“坑”技巧

最近除了工作以外,业余在参加Paddle的AI比赛,在用Paddle训练的过程中遇到了一些问题,并找到了解决方法,跟大家分享一下: PaddlePaddle的Anaconda的兼容问题 之前我是在服务器上安装的PaddlePaddle的gpu版本,我想把BROAD数据拷贝到服务器上面,结果发现我们服务器的22端口没开,不能用scp传上去,非常郁闷,只能在本地训练.本机mac的显卡是A卡,所以只能装cpu版本的,安装完以后,我发现运行一下程序的时候报错了: 1 import paddle.v2 a

【深度学习系列1】 深度学习在腾讯的平台化和应用实践(转载)

转载:原文链接 [深度学习系列1] 深度学习在腾讯的平台化和应用实践 引言:深度学习是近年机器学习领域的重大突破,有着广泛的应用前景.随着Google公开 Google Brain计划,业界对深度学习的热情高涨.腾讯在深度学习领域持续投入,获得了实际落地的产出.我们准备了四篇文章,阐述深度学习的原理和在腾讯的实 践,介绍腾讯深度学习平台Mariana,本文为第一篇. 深度学习(Deep Learning)是近年来机器学习领域的热点,在语音识别.图像识别等领域均取得了突破性进展.腾讯提供广泛的互联

【深度学习系列4】深度学习及并行化实现概述

[深度学习系列4]深度学习及并行化实现概述 摘要: 深度学习可以完成需要高度抽象特征的人工智能任务,如语音识别.图像识别和检索.自然语言理解等.深层模型是包含多个隐藏层的人工神经网络,多层非线性结构使其具备强大的特征表达能力和对复杂任务建模能力.训练深层模型是长期以来的难题,近年来以层次化.逐层初始化为代表的一系列方法的提出给训练深层模型带来了希望,并在多个应用领域获得了成功.深层模型的并行化框架和训练加速方法是深度学习走向实用的重要基石,已有多个针对不同深度模型的开源实现,Google.Fac

深度学习系列(2) | Global Average Pooling是否可以替代全连接层?

深度学习系列 | Global Average Pooling是否可以替代全连接层? Global Average Pooling(简称GAP,全局池化层)技术最早提出是在这篇论文(第3.2节)中,被认为是可以替代全连接层的一种新技术.在keras发布的经典模型中,可以看到不少模型甚至抛弃了全连接层,转而使用GAP,而在支持迁移学习方面,各个模型几乎都支持使用Global Average Pooling和Global Max Pooling(GMP). 然而,GAP是否真的可以取代全连接层?其背

使用腾讯云 GPU 学习深度学习系列之二:Tensorflow 简明原理【转】

转自:https://www.qcloud.com/community/article/598765?fromSource=gwzcw.117333.117333.117333 这是<使用腾讯云 GPU 学习深度学习>系列文章的第二篇,主要介绍了 Tensorflow 的原理,以及如何用最简单的Python代码进行功能实现.本系列文章主要介绍如何使用 腾讯云GPU服务器 进行深度学习运算,前面主要介绍原理部分,后期则以实践为主. 往期内容: 使用腾讯云 GPU 学习深度学习系列之一:传统机器学

【深度学习系列3】 Mariana CNN并行框架与图像识别

[深度学习系列3] Mariana CNN并行框架与图像识别 本文是腾讯深度学习系列文章的第三篇,聚焦于腾讯深度学习平台Mariana中深度卷积神经网络Deep CNNs的多GPU模型并行和数据并行框架. 将深度卷积神经网络(Convolutional Neural Networks, 简称CNNs)用于图像识别在研究领域吸引着越来越多目光.由于卷积神经网络结构非常适合模型并行的训练,因此以模型并行+数据并行的方式来加速Deep CNNs训练,可预期取得较大收获.Deep CNNs的单机多GPU

【深度学习系列2】Mariana DNN多GPU数据并行框架

[深度学习系列2]Mariana DNN多GPU数据并行框架 本文是腾讯深度学习系列文章的第二篇,聚焦于腾讯深度学习平台Mariana中深度神经网络DNN的多GPU数据并行框架. 深度神经网络(Deep Neural Networks, 简称DNN)是近年来机器学习领域中的研究热点[1][2],产生了广泛的应用.DNN具有深层结构.数千万参数需要学习,导致训练非常耗时.GPU有强大的计算能力,适合于加速深度神经网络训练.DNN的单机多GPU数据并行框架是Mariana的一部分,Mariana技术

基于TensorFlow的深度学习系列教程 2——常量Constant

前面介绍过了Tensorflow的基本概念,比如如何使用tensorboard查看计算图.本篇则着重介绍和整理下Constant相关的内容. 基于TensorFlow的深度学习系列教程 1--Hello World! 常量的概念 在tensorflow中,数据分为几种类型: 常量Constant.变量Variable.占位符Placeholder.其中: 常量:用于存储一些不变的数值,在计算图创建的时候,调用初始化方法时,直接保存在计算图中 变量:模型训练的参数,比如全连接里面的W和bias 占

【深度学习系列】用PaddlePaddle和Tensorflow实现AlexNet

上周我们用PaddlePaddle和Tensorflow实现了图像分类,分别用自己手写的一个简单的CNN网络simple_cnn和LeNet-5的CNN网络识别cifar-10数据集.在上周的实验表现中,经过200次迭代后的LeNet-5的准确率为60%左右,这个结果差强人意,毕竟是二十年前写的网络结构,结果简单,层数也很少,这一节中我们讲讲在2012年的Image比赛中大放异彩的AlexNet,并用AlexNet对cifar-10数据进行分类,对比上周的LeNet-5的效果. 什么是AlexN