核武器,始终是高悬在人类头顶的达摩克利斯之剑。
有关它的任何风吹草动,都会时刻牵动着所有人的神经。二战末期,美军在广岛、长崎投放的×××,现在仍是萦绕在世人心间的噩梦。冷战期间,美苏争霸制造的核武库,已然将地球捆绑在了巨大的×××桶上。朝鲜在大国之间“如鱼得水”地周旋,依靠的正是潜在的核武器制造实力;而最近美国单方面退出“伊核协议”的行为,注定进一步扰乱本就脆弱的中东秩序和地区核平衡。不难预见,在未来很长一段时间内,核战争的阴云还将继续笼罩在这个星球之上。
当前,人工智能已经成为了一股不可阻遏的科技潮流,它正在与生活的方方面面以及各个学科领域生发着奇妙的化学反应,“AI+”注定将是接下来几年中被提及的最频繁的词组之一。在人工智能的时代,它的触角将不可避免地最终伸向军事领域的最敏感地带——核武器。这两者的结合可能会给人类带来什么样的后果呢?
最近,美国著名智库兰德公司(RAND Corporation)发布了一篇题为“人工智能将如何影响核战争”的研究报告,就专门论述了“AI+核武器”的问题。在这一报告中,作者摒弃了常见的那种“AI使用核武器毁灭人类和世界”的好莱坞式的耸人听闻的预测,而是先详细介绍了自冷战延续至今的有关核武器的共同毁灭机制( Mutual Assured Destruction,指对立双方中如果有一方率先使用核武器,则另一方则会立即发送核反击,最终导致冲突升级,两方都会被毁灭)的缘起和发展情况,并进而将目光投向了更为务实的AI应用场景:追踪/定位×××;辅助决策是否使用核武器。关于这两个场景,该报告都从正反两面论证了AI可能在核战争中起到的作用:倘若将AI应用至追踪/定位×××上,将会大大提高所在国对假想敌攻击的监测精度,信息的愈加透明化,可能会增进双方的战略互信,从而降低爆发核战争的可能性;然而,一旦AI的×××追踪/定位功能出现了纰漏,核战争被引发的概率将会大大提升。同理,AI决策辅助对核战争也有着双向的影响。换言之,建立在 M.A.D.机制上的脆弱的核平衡,将会因为AI 的介入和使用而大概率地增加了许多不稳定的因素。他们接着在分析的基础上指出,“日益多极化的战略环境中,人工智能在2040年之前极有可能导致核武器平衡局面的打破以及当前核威慑手段的失效”。最终,作者亮明宗旨,即试图弄清楚AI与核战争之间的关联,并确保规避AI的负面影响,最大限度发挥其积极作用。
其实,兰德公司在这里分析、预测的事情并不新鲜。在计算机的发展史上,由技术引发的安全隐患一直都存在——特别是当它与危险的核武器联系在一起时。最近几十年,人类因计算机技术而最接近毁灭的时刻莫过于1983年9月的一个晚上:时任苏联国土防空军中校的斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov, 1939-2017)正在值夜班,突然×××预警系统发出急促的警报,电脑读数显示有数颗美国×××正在向苏联本土袭来,按照流程,彼得罗夫应该立即向最高军事长官报告此事,并对美国发动报复性的核打击,一场改变人类命运的核战争似乎近在眼前;然而,在彼得罗夫与其他地面监测部队联系后,他冷静地确认这是一例系统误报事件,而非美国真的向苏联发射了×××;几分钟过后,事实证明彼得罗夫的判断是正确的。倘若没有彼得罗夫的人工复核,计算机差点就引发了一场毁天灭地的人间浩劫。
然而,人类的存亡安危不能总依靠着一时的侥幸。随着AI越来越多地接管、替代人类的工作,我们必须要时时刻刻对这一技术的负面影响保持警惕;在将AI应用至军事领域时,我们尤其需要严谨与慎重,因为极有可能一不小心,人类搬起的石头就会砸向自己的脚,带来难以预估的重大损失。
爱因斯坦曾不无幽默地表示:“第三次世界大战将要使用的武器我并不知道,但是第四次世界大战将会用木棍和石头开战。”没有人真的愿意看到这一幕的发生,但是一旦发生核战争,AI又能起到什么积极的、正面的作用呢?
我们先设想一个情景:某个5月的一个周一上午11:15,一辆看似普通的货车驶进了美国华盛顿市中心的第16街和K街交汇处,就在白宫北边的几个街区。在车里,自杀式×××袭击者悄然按下了开关。核弹轰然爆炸,整个城市街区瞬间化为乌有,方圆一英里内的建筑物全被摧毁,数十万人在废墟中死亡或垂死挣扎。电磁脉冲使周围5公里内的手机失效,整个城市的供电网络全部中断。风把×××产生的蘑菇云变成了放射性尘埃,并向东蔓延到马里兰州的郊区。各条公路上很快就挤满了人,有些人试图逃离,但更多的人在寻找失踪的家庭成员或寻求医疗帮助。简言之,白宫陷落了。
这些虽然都是虚构的,但却有着严肃的目的。假想因核攻击而导致白宫陷落的故事线被称为“国家计划情景1”(NPS1),围绕着它的研究起源于20世纪50年代,美国国家安全和应急管理部门希望在假想一旦成真之前,找到一套能在核爆后最大程度上止损的灾难应急处理方案。而一套稳妥的应急方案的提出,仅依靠静态的统计数据是远远不够的;倘能建立起动态模型来摹拟真实的爆炸场景,控制事件发生场景当中的变量与不变量的话,对症下药的应急方案相对来说就更为可靠。
最近,一个来自弗吉尼亚理工大学的科研团队就针对这点开始了研究实践。首先,他们建立起了在电脑上建立了一个巨大的华盛顿特区的电子模型,这个模型尽可能详尽地包括了该地区建筑物(学校、医院、防空设施等)的设计参数,管道线路的铺设与走向,气候的历史数据,地形河流的自然因素等内容,除此之外,他们还在这一虚拟城市中,放置了大约73万个代理(agent)——从统计上看,在年龄、性别和职业等因素上,与华盛顿特区的真实人口情况相差无几,每一个代理都是独立的子程序,能通过切换多种行为模式,以合理的方式响应其他个体的行为以及可能到来的灾难性事件。其次,在这个模型的任一点制造出一场虚拟的核爆炸。通过控制核武器的当量、爆炸发生的时间及地点等因素,观察虚拟代理们的行为方式,以及由此带来的种种问题,如交通拥堵、医疗紧缺、电力崩溃、水源污染等。最后,根据核爆模拟情况,有针对性地制订应急处理措施,反过来指导现实世界的基础设施、规章制度的建设。受益于日益提高的计算机算力和AI技术的不断成熟,这样的模拟在细节上会越来越真实,越来越贴近现实世界——这同时意味着其现实指导意义越来越大。除了核爆炸,这样的模型还适用于传染性疾病的预防和治疗、大流量交通设施的设计与规划以及极端自然灾害(干旱、飓风、海啸等)下的管理与调控等问题上。
如此看来,未来AI无疑将会在公共安全领域的政策制定与应急管理上发挥重要的咨询作用。但是,正如上文所说,没有人愿意看到包括核战争在内的灾难的发生,事后的止损,远不如防患于未然。
当年深度学习之父Geoffrey Hinton从美国北迁至加拿大,正是出于对人工智能军事化的本能厌恶;近几个月来,谷歌3000余名员工联名反对美国国防部的Maven计划(Project Maven),以及包括Hinton在内的多位人工智能专家对韩国科学技术院大学(KAIST University)开发“杀手机器人”的抵制等行为,一方面显示了广大科研人员的良心与警惕性仍在,但在另一方面却恰恰揭示了AI军事化正在迅速到来的这一残酷现实。在这样的大背景下,我们必须要意识到:任何技术或工具都有可能是潘多拉的盒子,核武器如此,AI如此,AI+核武器更是如此。带着荀子式的“性恶论”的眼光或者新卢德主义(Neo-Luddism)的观点,去审视人工智能在军事领域发展及应用,从而建立起一系列的原则与制度,来减少人为主动作恶或技术被动作恶的可能,要比傻乎乎地无条件拥抱技术进步要明智得多。
从这点来讲,兰德公司提出此份报告不可不谓及时。
原文地址:http://blog.51cto.com/naojiti/2116764