AI与偏见:从当代新“相面术”说起

相面术,无疑是一门古老而又生命力旺盛的学问。

说它古老,是因为其历史悠久、源远流长。中国相面术的起源,最早可以上溯至氏族社会时期,到了春秋战国时期就已十分流行,《麻衣神相》是相面术的集大成之作,拥有深广的群众基础。大家耳熟能详的文学作品中经常能看到相面术的身影:大富大贵之人一般都相貌不凡,如《三国演义》中刘备的“双耳垂肩、双手过膝”、关羽的“丹凤眼、卧蚕眉”等;而奸恶之人也都天生异相,如《史记》里秦始皇的“蜂准、长目、挚鸟膺、豺声”。简而言之,相面术就是为“那个人一瞅就不是啥好东西”这句话所准备的理论基础。

说它生命力旺盛,是因为相面术不但能深深地植根于人类“颜控”的本性,还能紧随时代发展的步伐,调整自身形态,最终在新的时代成功站稳脚跟。从古代游街串巷的算命先生,到曾国藩的《冰鉴》,再到龙勃罗梭(Cesare Lombroso, 1836-1909)的犯罪人类学的提出,相面术总能“以无厚入有间”,找到自己的容身之处。在AI日益发挥着如同工业时代“蒸汽机”一样作用的今天,相面术似乎也嗅到了自己“寄生”的新方向。

去年秋天,来自斯坦福大学的Michal Kosinski和Yilun Wang合作发表了一篇题为《深度神经网络可通过面部图像确定个体性取向》(Deep Neural Networks can Detect Sexual Orientation from Faces)的论文,一石激起千层浪,引发了舆论的大哗。二人从美国约会网站及平台的公开信息中采集了14776位用户的35326张面部照片,并用深度神经网络(DNN)密集提取并量化了他们的脸型、嘴型、鼻形以及面部毛发等特征,接着他们引入VGG-Face DNN模型,通过面部表情、光线、图像属性等因素标记图像中的人脸,随后二人用奇异值分解(SVD)等手段对图像分类,区分出×××与非×××照片。经过一系列训练,该算法识别男女性取向的准确率分别达到了81%和71%;倘若受测个体的照片有五篇以上的话,这个数字将分别提高至91%和83%。二人还用数千张图片分别合成了两组照片,分别显示了男女异性恋和×××较具代表性的样态,两相比对,×××人群的面部轮廓和五官位置形状确实有细微的差别。

这项研究成果被有些媒体称之为“AI Gaydar”,它一经发表,就引发了LGBTQ群体的强烈不满,这一群体中两个较有代表性的组织Human Rights Campaign (HRC)和GLAAD直接将此研究斥之为“伪科学”(Junk Science),并认为这一技术手段的广泛应用不但会严重侵害个人隐私权,而是还将会是对本就脆弱敏感的性少数人群的新的“系统化虐待”(Systematized Abuse)。更令人不安的是,该文的作者之一Michal Kosinski还对《卫报》的记者表示,这一算法在未来还可应用到判定受测者的智商、政治倾向以及犯罪几率等领域。

事实上,早就有科研团队在Kosinski提及的几个领域中取得了研究成果。来自上海交通大学的两位研究者Xiaolin Wu(武筱林)和Xi Zhang(张熙)于2016年的11月份就在arXiv上提交了一篇题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)的论文,二人通过视觉识别和机器学习技术,检测了1856张中国成年男子的照片,其中近一半照片都来自已经定罪的罪犯。实验结果表明,这一算法可以以90%左右的正确率识别出罪犯和非罪犯;同时,他们还发现罪犯和非罪犯在内眼角间距、上唇曲率和鼻唇角度这三个测度上存在着较显著的差异,并且罪犯面孔特征的差异要大于守法公民。这篇论文的有些结论与“麻衣相法”的部分内容不谋而合,而论文作者也将陈抟所撰写的《神相全编》(陕西师范大学出版社,2010)列入到了自己的参考文献当中。

姑且不论上述两项研究的样本择取(数量、范围、标准)是否客观,也不论研究者们设计实验的初衷(前者意欲提醒人们注意个人信息安全,后者试图反对所谓的“相由心生”)是否合理,这样的研究在逻辑上就存有很大的漏洞:“×××”、“犯罪”的成因由多个变量决定,在研究中研究者却将“相”或“外貌”作为了唯一变量,而这唯一的变量其实是“天生”的,换言之,就是“不变”的;亦即,作为不变的“变量”的“相”与诸如“×××”、“犯罪”之间是无法建立起因果关系的。基于这点,我们可以大致断定,这类研究不过是形形××ד相面术”披着AI的外衣在当代的又一次“借尸还魂”罢了。

更令人担忧的是,由于AI的加持,这样研究成果一旦从实验室应用到实际生活场景当中,所产生的负面影响将会超出以往所有的“相面术”:由于AI处理数据的超强能力,这些成果的负面影响极有可能波及到社会中的大多数人;倘若这些成果一旦堂而皇之地进入到极权政体或×××非法的国家的话,“相面”借由技术这一貌似“客观”、“科学”的外衣,将在严重侵害少数族群的正当权益的同时,制造出一个人人自危的社会环境,无限放大、扩散本已存在于人类社会的各种偏见、歧视,最终导致灾难性的后果。纳粹的“雅利安种族优越论”殷鉴未远,从事科学研究的工作者们对此需要慎之又慎。

(纳粹科学家正在做容貌测量)

这就引出了本文想要讨论的主题:AI与偏见的关系。关于这点,笔者认为有必要澄清以下两方面:

(一)AI作为工具,映射的是人类本就存有的偏见、歧视。有不少媒体使用了“人工智能存有偏见”或“人工智能产生歧视”这样的词组搭配,似乎“人工智能”是生产偏见、歧视的主体。其实,AI的定语是“人工”,它只是人类的工具,换言之,只不过人类偏见、歧视和刻板印象的新的载体。正如巴斯大学的Joanna Bryson所说的那样:“很多人都认为是AI存在着偏见,不,这正表明是我们有偏见,AI 正在有学有样。”谷歌认为AI之所以出现偏见,源自于实施算法过程中“互动偏差”、“潜在偏差”以及“选择偏差”。其实,即便没有这些操作步骤中的偏差,AI 仍将充满偏见,因为人类社会和文化本身由无数偏见组成。

(二)AI作为工具,还将大大强化人类社会中的偏见、歧视。数次技术革命给人类社会带来的巨大改变,这使得我们的文化对于科学技术拥有了一种盲目的乐观和崇拜,“数字”、“科学”、“实验”这些词几乎等同于“真理”、“正确”,这种“唯科学主义”很容易忽略掉技术本身的“主观性”——AI看相摸骨正凭借这点趁虚而入。这次人工智能浪潮对于社会生产力无疑具有巨大赋能潜力,这同时意味着倘若偏见、歧视混入其中的话,AI将为人类带来更隐蔽、更深广的破坏力度。因此,人工智能领域不仅需要积极拥抱新技术的乐观主义者,还能接纳那些忧心忡忡的卢德主义者们。

(微软AI聊天机器人Tay上线后,很快沦为人性阴暗面的镜子)

那么,在充满偏见的社会语境中,应该如何以正确方式地打开AI呢?

首先,不要人为地用AI制造出更多的偏见。最近, 据Futurism.com报道,来自美国的一家新闻媒体平台Knowhere试图用AI技术重写新闻报道,以祛除语言文字中的偏见性因素。在其官网的自我介绍中,他们声称自己家的新闻报道是“世界上最客观的新闻”(The World’s Most Unbiased News),其重写新闻的大致流程如下:使用AI搜集互联网上围绕某一主题的所有新闻,不管这些内容是中立、左翼倾向或右翼倾向的;AI根据这些资料重写一篇中立的新闻报道,这篇报道在涵盖基本的事实和数据的基础上,还小心翼翼地移除了任何可能引发偏见的词汇;除此之外,AI 还将分别重新写出左倾、右倾的新闻报道,以供有兴趣的读者阅读;最后,AI针对同一主题重写的这三篇文章都将经过专业新闻编辑的审阅、修改及核定,才会刊发在其网站上。

对比该网站关于同一事件所使用的三个版本的新闻标题是非常有意思的,以朝美会谈为例,中立报道的标题是“总统川普同意与朝鲜领导人金正恩进行历史性会晤”,左倾报道的标题是“感谢川普,朝鲜电影宣传成真啦”,右倾报道的标题是“朝鲜是川普政策的最终考验”。这种模式乍看之下十分新鲜,但是经不起太多琢磨:谁来决定“中立”的标准?怎么确保决定标准者是完全中立的?AI在筛选、重组新闻的过程中是否能够彻底贯彻人为设立的中立标准?或者更进一步,将新闻的阅读人群分为Left、Impartial、Right本身是否也是某种意义上的“偏见”?因此,Knowhere的出发点是减少偏见的存在,而最终的实际效果反而是固化了它们——这点和斯坦福大学、上海交大的两项研究非常类似,都犯了“带着偏见,然后再用AI来验证/强化自己的偏见”的错误。

其次,利用AI去正视、理解以及研究人类自身的偏见。去年发表的一篇名为《基于词语嵌入技术量化百年间性别和种族成见》(Word Embeddings Quantify 100 Years of Gender and Ethnic Stereotypes)的论文就为我们做了很好地示范。研究者将AI技术与词语嵌入结合在一起,分析了有近2亿词汇的1910-1990年之间英语世界出版的报纸、杂志和书籍,从中提取了与性别、种族有关的形容性词汇,并对其统计、汇总、排列,找出了许多发人深思的现象。比方说,研究人员发现,过去百年间越来越多的有关工作能力的词汇与女性关联起来,如 resourceful(机敏的)、Clever(聪明的) 等,也有一些词汇一直被施之于女性,如alluring(迷人的)、homely(相貌平平的) 等。又如,1910年形容亚裔的大多是 barbaric(野蛮的)、greedy(贪婪的)这样的负面词汇,而到了1990年情况虽然有所改善,有了像fixed(坚定的)、active(活跃的)等词汇与之联系,但是施诸他们最多的仍是haughty(高傲的)、dissolute(放荡的)这样的词汇。

该项研究使用AI这把利器,大量分析了人类过去所产生的文本,以精确、高效的方式揭示出我们社会文化中潜藏着的不易为人察觉的偏见、歧视和刻板印象,要远远地优于过往那种印象式的、或样本数量较少的社会学研究成果。这一研究同样来自斯坦福大学,与Michal Kosinski和Yilun Wang的那个研究相比,格局、立意孰高孰低,无须多言,一目了然。

所谓,知乃行之始。我们人类应该借助AI的优势,重新检视自身文化中或隐或现存在着的偏见、歧视和刻板印象,然后带着这种清醒的认知和逐渐形成的共识,时刻审视和调整自己应用AI技术的立场与动机,避免AI沦为反映、放大乃至制造偏见的新场域,最终,让这一技术成为我们期待着的那个美好的样子。

对了,关于形形×××的“相术”和上述这些道理,几千年前的荀子早在《非相》篇里说过了:

“相形不如论心,论心不如择术。”

原文地址:http://blog.51cto.com/naojiti/2108363

时间: 2024-10-09 18:45:19

AI与偏见:从当代新“相面术”说起的相关文章

因为“歧视”和“偏见”,AI暂时还做不了人的主

关于AI歧视我们也聊了很多,比如相貌偏见.语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域.在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断. 那么,AI的歧视问题也就不是一个简单的算法问题了.今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么. 始作俑者的人类本身:AI歧视产生的根源 首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里.目前来看,大体上有两个个方面. 1. 数据和算法的限制. 首先是数据的限制.AI对事物作出的判断不是凭空或者随机而得的

我们为什么不愿意相信AI?

人工智能--即AI已经变得越来越聪明,甚至能够预测未来.比如警察可以用AI来提前预判出犯罪的时间或地点,医生可以用AI预测病人最有可能心脏病发作或是中风.甚至研究人员还试图为AI添加上更多的想象力,因为其能够规划出人类所预想不到的结果. 通常来说,在大众的生活中很多决策都需要事先进行一定的预判.不过随着AI的进步,其预测比人类更加优秀.然而,随着AI技术的进步,我们似乎仍然缺乏对AI的信心.最近就有研究表明,人们不喜欢依赖AI,更愿意去相信人类专家--即使某些专家是错误的. 你相信AI吗? IB

2018年即将到来,大牛们已经开始关注的那些新的语言、框架和工具

软件开发行业继续向前迈进. 在2017年,我们看到了新版本的流行语言,框架和工具,这给了我们更多的力量,并且改变着我们的工作方式. 跟上一切潮流很难,因此在每年年底,让我们来谈一谈未来的十二个月什么才可能是最重要最值得学习的. 首先,我们先来谈些D(大)S(势)S(所)Q(趋) Progressive Web Apps(渐进式Web应用 PWA) 也许你还不知道,2016年一种叫做PWA的概念已经悄然兴起,现在我们就来深♂入了解一下它的内♂涵. 在生活中你有没有在没有网或者几乎没有网的情况下打开

学语的幼儿:如何把语言歧视缠身的AI拉回正道?

到目前为止,跟人类最像的东西应该就是AI了.自人类诞生,从来没有什么能像今天的AI一样,能如此地理解人类. 尽管它距离完全了解我们还有很远,但已经够好了. 深度学习让AI再次焕发活力,其对人的模仿能力大大增强.无论是看图还是说话,它一直都在学着从人类的视角去看世界.从语言学习方面来说的话,AI其实更像是鹦鹉. 那么,也就是说,AI的一切都是从人们那里学来的.至少在目前来看,无论怎么努力,它都无法越过人类日常的藩篱.人喜欢什么,它就喜欢什么:人讨厌什么,它也讨厌什么.人类会骂娘,它也能学会说法克.

人工智能(AI)产业在中国悄然兴起

去年夏天,微软(中国)把Cortana智能机器人的小妹妹"Xiaobing"(即"微软小冰")上线,使国人眼睛一亮,尤其是对于"90后".从此,微软的"卖点"变了,"人工智能"(AI)产品成了新卖点. According to a report from UK-based Juniper Research, by 2018, the total market revenue of smart home(智能

手机AI的机会,在于孵化下一种流行应用

比气温更能准确预示春天到来的,是各大手机厂商的蠢蠢欲动. 进入3月,各手机品牌都开始启动了新一年的攻势.有意思的是,去年还"几支独秀"的AI,今年已经在国内手机圈成为了遍地开花的关键词. 或真或假打着AI名头的手机,普遍都会灌输给消费者一个认识:用了AI,你的手机能力将会更强.这其中被提到最多的当然是摄影能力,其他诸如美颜.翻译.识图,也是厂商的重点宣传领域. 类似的宣传看多了,似乎我们会形成一个观点:AI的作用,就是增强. AI能够普遍增强手机和应用的能力,这当然事实.但这种叙事策略

破局人工智能:构建AI,与腾讯云一起探索语音应用场景

本文来自腾讯云技术沙龙,本次沙龙主题为AI平台及智能语音应用解析 近年来,人工智能技术快速发展,与其他行业的结合也成为业界不断探索的方向.在人工智能基础和工具方面,AI平台已成为降低人工智能门槛的关键因素:而在人工智能应用方面,作为最成熟的应用方向之一,智能语音已在智能家居.智能车载等领域有了迅猛发展.以腾讯为代表的巨头企业,凭借强大的技术积累和在社交聊天.游戏娱乐等垂直领域定制化服务的丰富经验,在AI平台和智能语音两方面都推出了丰富的解决方案. 依照现状,AI平台如何降低人工智能门槛,帮助企业

百度AI开放平台,共建AI生态

2016年,百度开始把积累多年的人工智能技术全面对外开放,从底端智能云,中间百度大脑,到顶层的DuerOS,百度打造整体人工智能开放生态,旨在帮助企业.业界能够更快速的使用.应用人工智能的技术去发展,为人类带来更好的生活.在此背景下,为了更加全面的了解百度AI开放平台及AI生态,将由百度AI技术生态部产品负责人刘倩为大家介绍百度在人工智能开放平台与开放生态方面的思考.进展以及沉淀. 以下为刘倩老师演讲实录 百度AI开放生态战略的中流砥柱---百度大脑 百度AI开放生态是从底端智能云,中间百度大脑

AI在沙盒游戏又会如何?OpenAI 打造 Neural MMO 游戏

OpenAI 一直试着训练 AI 玩各种复杂的游戏,在先前<星海争霸>.<DOTA 2>的测试打败一些职业选手后,OpenAI 将注意力转向更复杂的大型多人在线(MMO)世界.当然,OpenAI 并不会立即就向类似<魔兽世界>(Warcraft)投入数百名 AI 代理,为了更好的训练.观察 AI 发展,OpenAI 开发了名为「Neural MMO」的游戏──当然,这是只提供 AI 代理的「限定」游戏.就像人类玩家一样, AI 代理必在 Neural MMO 中必须争夺