在评论某位新蹿红的明星时,围观群众总是习惯性地先从长相上来判定,如“像周润发和梁朝伟的合体”、“刘德华和郭富城的合体”等——反正比“黄渤和王宝强的合体”好多了……而上图的这位美女让你想到了哪位明星?是“美国甜心”詹妮弗·安妮斯顿,还是跟贾斯丁·比伯分分合合无数次的赛琳娜·戈麦斯?或者说,即使你认不出来到底是谁,也总觉得她是个名人,应该走过红毯或出现在电影首映式、颁奖典礼上。
但是不好意思,她并不是真实存在的,只是由人工智能系统所创造的“假照片”而已。据了解,这张照片由英伟达正在开发的系统创建——目前这家老牌计算机芯片制造商正在人工智能领域大力开展研究。
在芬兰的一个实验室中,英伟达的一组研究人员最近创建了一个系统,可以通过分析成千上万真正的名人照片,并创建看起来相似,实则完全“无中生有”的“假照片”。此外,该系统还声称能创建马匹、公共汽车、自行车、之物等常见物体的“假照片”。但就是这样的“假照片”,却骗过了绝大多数人的眼睛。
该系统的目标是可以自动创建、生成令人信服的图像,或是以同样的方式改变已有的图像。最终,将这种技术应用在游戏、电影和其他内容领域的创作上。如果能够成功,无疑会让游戏、电影等迎来一个新时代——价格要是能比CG技术等还廉价,就可大幅降低成本。
上面这一系列图像的变化,显示了英伟达是如何在18天的时间中去制造一张逼真的“假照片”。英伟达研究人员利用称之为渐进式GAN的方法,建立了一个以低分辨率图像开始,然后逐渐进化到更高分辨率的系统。最终的结果是1024×1024像素的图像清晰、细节丰富,在许多情况下非常有说服力。
其实不仅仅是英伟达,其他巨头也在这一领域多有涉足。近年来,通过分析大量数据来学习任务的算法,谷歌和“脸谱”等巨头企业及许多世界顶尖人工智能实验室都建立了相似的系统——以人眼识别的准确度来判断凭空制造人脸、普通物体的成熟度。
这两张照片哪张为真,哪张为假?
此外,另外一支英伟达的研究团队也于近日创建了一个系统——能够自动更改在夏季拍摄的街头照片,使其看起来像下雪的冬季场景。而加州大学伯克利分校的研究人员设计出能让普通马变成斑马、莫奈成梵高的系统,谷歌旗下的伦敦AI实验室DeepMind则是探索能够自动生成视频的技术。
不过与此同时,“假照片”及由此带来的“假新闻”等正在引发新的问题。之前曾在谷歌负责人工智能政策,现任人工智能基金道德与治理部主任的Tim Hwang表示,“现在担心的是,这些技术将会上升到很难辨别真假的程度”,进而引发有关新闻真实性的等问题。
在去年8月份,华盛顿大学的一个研究小组创建了一个系统成为当时头条新闻——由奥巴马发布视频“假新闻”。其他包括加州初创公司、中国的科大讯飞等,也在利用特朗普的形象开发类似的技术。
据悉,在去年11月9日举行的科大讯飞2017年度发布会上,现场播放了“特朗普”对大会的祝福。而视频声音是通过科大讯飞的机器学习、合成技术,通过对特朗普大量语音的分析,从而实现任意字词的语音合成,达到近乎以假乱真的效果。
随着人工智能技术的进步,未来任何人都有可能轻松地制造逼真的人造图像或者视频——比Photoshop更加容易,也更加可信。民间调查网站Bellingcat创始人Eliot Higgins指出,假图像绝不是一个新问题,将会愈来愈严重。
在没有这些先进技术的时候,各种谣言、虚假信息等就已经在网上彻底泛滥,让人真假难辨,成为互联网上的“毒瘤”。如果再配上这样的技术,就更加让人难以分清真实和虚假。给明星制造绯闻、故意“陷害”他人、炒作网红、微商大肆营销……届时,互联网就彻底乱套了。
这些先进技术衍生的问题会越来越多,必须在当下就对其进行科学的管理——我们决不能低估网上虚假信息传播的影响。要让这些技术为更美好的生活服务,而不是成为某些有心人的作恶工具。(科技新发现 康斯坦丁/文)
原文地址:http://blog.51cto.com/skysfw/2059625