因为“歧视”和“偏见”,AI暂时还做不了人的主

关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。

那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。

始作俑者的人类本身:AI歧视产生的根源

首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里。目前来看,大体上有两个个方面。

1. 数据和算法的限制。

首先是数据的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一些列的训练学习才可以。那么,如果要训练它在某方面的能力,就要将相关领域的数据搜集起来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。

而数据限制的另一方面则来自数据本身。比如某个群体会有一些共性的特征,那么AI将会把这些大多数的共性特征数据作为标签来用。一旦对象不在这个群体特征里,或属于这个群体的少数特征,其就有可能采取否定的态度。

其次则是算法的限制。程序员在设置AI学习程序的时候,无法做到过滤到每一条消极的信息。因此,AI在经过大量的数据学习之后,其会自动匹配不同群体之间的关键词,然后做出判断。比如职业的男女分化问题。

事实上,目前我们面临的所有AI的歧视问题基本上是围绕着这两个方面展开的。数据学习不够多,或者数据学习够多之后,其学习范围超出了程序员设定的内容,然后开始进行自我学习和判断。这就造成了歧视行为的发生。

2. 人类固有偏见的强化。

但AI的歧视问题的根源并不在于数据和算法。在一定程度上,AI的歧视实际上是人类偏见的一种显现和强化。人类是善于进行言语上的克制的,或者表现出在沟通交流中的表面客套。长此以往,人们似乎把隐藏自己对别人的偏见当成了一种有素质的美德。问题变成了你心里歧视与否不重要,面上做得好,你就是一个好人。

在这方面,做慈善的被曝丑闻后对比尤其突出。

而AI出现的意义之一就是打破了人们维持表面友好的自我欺骗的情况,它把那些被人们刻意隐藏的,并且似乎被隐藏得很好的东西重新抖搂了出来。这就是显现,那么为什么说会得到强化呢?

首先,AI学习就是一个排除的过程,比如对图像语义分割,它要找到眼球,就必须要先进行图像的分割,否定其他不适眼球的东西。同理,要招到一个合适的员工,它也是重点去排除不合适的选项。否定的过程,就是一个强化的过程。

其次,是基于AI的特殊属性。AI是有史以来第一个人造的、有自己的判断能力的事物,当它出现一些违背人类维持表面友好而设定的一些规则的时候,人们一方面感到惊异,另一方面则会由此而进一步看清自己。它毫不留情地折了人类的面子,自然换来了更大的关注。

算法的限制和对人类固有观念的强化,大抵可以说明了AI歧视横行的原因所在。

AI歧视不仅类别多,影响可能还很大

如果我们仅仅是被AI歧视了,并且知道它的歧视是算法和人类本身问题所致,那也就无需担心。毕竟,歧视无处不在,心理足够强大,任何歧视都够不成火力伤害。论不要脸的自黑精神,似乎没谁能比得过现代人。

但是,当AI不仅仅是歧视你,还要对你做出判断,决定你的人生、工作、地位……的时候,你还能对它的歧视坐视不管吗?

比如现在非常流行一个概念,用AI来进行招聘。在理论上来讲,它能够通过学习既有的员工资料来筛选最符合公司需求的新人。对这些员工进行标签分类是学习的一环,能力强、口才好、实习经验丰富等可能会被筛选出来,但是,万一在这些样本中,AI找到了其他具有高度相同但和招聘又无关的标签了呢?

比如这些人可能男生多一点,它可能会认为女生不适合这项工作;如果城市户口的人多一点,来自农村的就有可能被筛掉;如果23岁以前的人多一点的话,那23岁以后的人就可能被认为不适合……

你看,仅仅就是这几个方面,就已经涉及到性别歧视、地域歧视、年龄歧视了。虽然人们开发AI进行招聘是为了避免面试官会凭主观印象决定去留,但太过于客观的AI招聘同样也会引发一些值得考虑的问题。

再比如把AI布置在警务工作当中。最近一段时间提到最多的就是利用AI帮助识别甚至是预测罪犯。比如去年上海交大的一篇论文中提出,可以通过人的样貌进行分析,来判断此人是否有犯罪的倾向。简单来说,就是看你是不是长了一张“×××脸”。而美国的警察也在最近试图部署一套警务系统,来预测犯罪发生的人员相关、地理区域等,然后来针对性加强监控。英国来采用过类似的方法来预防犯罪。

这其中自然存在着严重的问题。看“人脸”就能辨罪犯?虽然相貌歧视确实一直存在,但基本上都是基于五官的缺陷。现在居然升级了。美国的预测犯罪往往会把黑人和黑人集中区域当做重点预测对象,这是很难令人接受的。尤其是美国这样一个对黑人歧视非常忌讳的国家,AI即便不是个人,这一举动也会招致人们的讨厌。英国就更不用说了,他们的这个监视系统运行了一段时间之后,穷人被特别针对了,因此最终不得不紧急下线。

从这几个案例当中,我们发现,AI还存在着相貌歧视、种族歧视、贫富歧视。除此之外,AI的歧视还深度存在于各行各业当中,甚至未来的一天我们可能真的会像《黑镜》当中一样戴一个隐形眼镜,然后就可以看到眼镜对面来人的安全度识别。高安全度也不一定真的安全,很有可能是刷出来的呢?

也就是说,AI的歧视是一个综合性的东西。问题又来了:难道因此我们就要将AI废弃吗?我们人类就那么玻璃心吗?

当然,弃用AI不现实,这是一个因噎废食的行为。它毕竟还在深刻地改变着我们的这个社会。但是,随着AI的大规模应用,努力减轻甚至是消除AI的偏见,也已经显得迫在眉睫。

怎能坐视不管:AI歧视的解决之道

谷歌的一款数据库被人们发现有存在着明显的性别歧视。比如一个简单的问答,巴黎:法国,那么东京:X,系统就会给出X=日本。如果是“父亲:医生”,其则将会对应“母亲:护士”;“男人:程序员”,“女人:家庭主妇”,诸如此类。

研究者们创建了一种“硬性纠错”的方法。简单来讲,就是把系统判断出的对应关系放到一个论坛平台上去发布并询问是否合适。如果有一半的人认为不合适,那么这个类比就不恰当。这种方式进行了一段时间之后,对AI进行单词搭配的改善效果是非常显著的。

这个方法虽然有效,但是明显看出它只能适用于一些数据范围较小的方面。比如某一家公司的招聘,可以在招聘之前对AI进行训练,然后找出问题,再用这种方法进行硬性纠错。但是如果要用它来解决AI所有的问题,却有点不现实。

哥伦比亚大学的研究者们则开发出了另外一种方式。深度学习研究的进步是AI复活的一个重要因素,但是AI的黑箱问题仍然没有解决。因此,这些研究者们就试图用打开黑箱的方式去弄明白为什么AI会做出一些错误的决定。他们开发出了一个能在神经网络中通过欺骗系统从而使其暴露自身缺陷的软件,名叫“DeepX plore”。这个软件能够激活系统中几乎百分之百的神经元,从而让整个神经网络去扫描错误。

也有其他的人建议从编程上去解决问题。但是从根本上来说,人类应该把AI的歧视当做一面镜子,仔细审视自己在社会活动中种下的祸根。由此,不断减少自己实际意义上的歧视和偏见。只有学习的内容消失了,AI才可能避免产生歧视的问题。

但是我们仍然要注意的一个问题是,用“偏见”和“歧视”去概括AI所有的“区别对待”是不合适的。人类发展到现在,不同职业对人有不同的要求,男人耕田女人织布反映的其实是历史经过长期发展后的自然分工。那么,在处理AI歧视问题的时候就不是一个简单的算法纠正了,它还涉及到社会学、经济学等各个方面的问题。

这样来看,解决AI的歧视和偏见,我们可能仍然有很长的路要走。目前能做的就是,生杀大权这件事儿,还是交给人类自己吧。

原文地址:http://blog.51cto.com/naojiti/2126178

时间: 2024-11-11 06:28:54

因为“歧视”和“偏见”,AI暂时还做不了人的主的相关文章

学语的幼儿:如何把语言歧视缠身的AI拉回正道?

到目前为止,跟人类最像的东西应该就是AI了.自人类诞生,从来没有什么能像今天的AI一样,能如此地理解人类. 尽管它距离完全了解我们还有很远,但已经够好了. 深度学习让AI再次焕发活力,其对人的模仿能力大大增强.无论是看图还是说话,它一直都在学着从人类的视角去看世界.从语言学习方面来说的话,AI其实更像是鹦鹉. 那么,也就是说,AI的一切都是从人们那里学来的.至少在目前来看,无论怎么努力,它都无法越过人类日常的藩篱.人喜欢什么,它就喜欢什么:人讨厌什么,它也讨厌什么.人类会骂娘,它也能学会说法克.

好烦,水题花了那么长时间还做不出来,然后。。。。就没有然后了。。。。

h Jesus! The Minecraft Server of XadillaX's came across a bug!There's one way to solve this bug in game. That is to get a bucket of water and a bucket of lava and mix them to obsidian. But remember, you must get water first, or the server will explod

Code-Validator:验证网址(可以匹配IPv4地址但没对IPv4地址进行格式验证;IPv6暂时没做匹配)

ylbtech-Code-Validator:验证网址(可以匹配IPv4地址但没对IPv4地址进行格式验证:IPv6暂时没做匹配) 1.返回顶部 1. using System; using System.Text.RegularExpressions; namespace Sp.Common { public class ValidatorHelper { /// <summary> /// 验证网址(可以匹配IPv4地址但没对IPv4地址进行格式验证:IPv6暂时没做匹配) /// [允许

写给想要做自动化测试的人

接触了不少同行,由于他们之前一直做手工测试,现在很迫切希望做自动化测试,其中不乏工作5年以上的人. 想做自动化,首先得了解一下自动化测试的一些常见问题: 自动化测试一些问题 什么是自动化测试? 自动化测试,顾名思义,自动完成测试工作.通过一些自动化测试工具或自己造轮子实现模拟之前人工点点/写写的工作并验证其结果完成整个测试过程,这样的测试过程,便是自动化测试.自动化测试,看上去很美,感觉好像是第一次工业革命,它开创了以机器代替手工劳动的时代,实则不然.因为每一个自动化测试的case都是从手工测试

投资人的能量往往大多远远不仅于此,他能站在不同的角度和高度看问题(要早点拿投资,要舍得让出股份)——最好不要让 Leader 一边做技术、一边做管理,人的能力是有限的,精力也是有限的

  摘要:在创业三年时间里作为联合创始人,虽然拿着大家均等的股份,我始终是没有什么话语权的,但是,这也给了我从旁观者的角度看清整个局面的机会.创业公司的成败绝大程度取决于技术大牛和公司 Leader,这两个人最好能在性格上形成互补,而遗憾的是我们公司是同一人. 关于决定是否创业 2012年4月,正好三年前整,在深圳能源正混的郁郁不得志的时候,大学的好兄弟找到我一起创业,他们有钱.有 idea,就是差人,当时的我还是技术菜鸟,本科学的也不是计算机,看着移动互联网蓬勃的发展羡慕不已.很快就答应了一起

请不要做浮躁的人

请不要做浮躁的人...(建议初学者看看,高手也不能落后) 2007-01-31 09:22:52 分类: 仔细阅读以下,你将获得收获^_^ [1]不要看到别人的回复第一句话就说:给个代码吧!你应该想想为什么.当你自己想出来再参考别人的提示,你就知道自己和别人思路的差异: [2]初学者请不要看太多太多的书那会误人子弟的,先找本系统的学,很多人用了很久都是只对部分功能熟悉而已,不系统还是不够的: [3]看帮助,不要因为很难而自己是初学者所以就不看:帮助永远是最好的参考手册,虽然帮助的文字有时候很难看

【51CTO学院三周年】做技术的人,要活到老,学到老

我很高兴,也很荣幸成为51CTO学院的一位学员,我本人从事计算机工作有10多年,说来惭愧,自己一直没有突破自己的技术瓶颈,一直都做在WINDOWS下的运维工作及弱电工程方面的工作.自己也曾经买书自学了点Linux方面的知识,但光靠自己学习进度是很慢,很慢的,没有系统的去学,没有正确的方法在自学中遇到问题无从下手,也找不到有经念的老师,问度娘,答案很多,但有些都不是自己想要的答案,且有些答案得不到验证.   有一天幸运之神降落在我身上,在51CTO官网上看到RHCE7认证,通过网上学习,从零开始.

2星|塔勒布《非对称风险》:需要让做决策的人承担相应的责任,结论多推理少证据少

非对称风险:风险共担,应对现实世界中的不确定性 <黑天鹅><反脆弱>作者新书. 书中重要的思想我认为有3个:1:风险共担是好的机制,也就是需要让做决策的人承担相应的责任,2008年金融危机正是因为违反了这个原则,美国对伊拉克利比亚等国的干涉的失败也是因为违反了这个原则:2:群体中最不宽容的少数派可能决定群体的选择:占美国人口0.3%的犹太人对饮食有严格的要求,结果美国几乎所有的饮料都符合犹太教标准:3:长尾可以分普通长尾和胖长尾.胖长尾包含了一旦发生风险巨大的事件: 我认为这些思想

与人共事的根本在于做一个值得信赖的人

刚工作的一两年里,我的思想观还不太正确,也没能做一个值得他人信赖的人,很多事情没有考虑清楚就说了,在他人看来就是不稳重. 记得在某家公司工作时,有次公司做促销活动, 运营在用户群里说,这是最后一天出售,但是后面一天还有去卖,结果被我们老板看到,然后老板在群里说: 不管是什么情况,我们既然已经在用户群里说了这是最后一天,明天就不能再卖了.你们个人的信誉也是公司的信誉,大家以后多注意吧,重要的事和话想好了再做再说.每一个人都必须高度重视,无论是在工作还是生活中都要做一个有信用值得别人信任的人. 想清