张蕴岭:人工智能发展的技术与道德之辩
前不久,116名专家签名呼吁,联合国应禁止研发和使用杀人机器人(即自动化武器,如无人机、无人战车、哨兵机器人、无人驾驶军舰等)。
文章选自世界知识期刊
作者:张蕴岭,全球化智库(CCG)学术委员会专家,中国社会科学院学部委员。
前不久,116名专家签名呼吁,联合国应禁止研发和使用杀人机器人(即自动化武器,如无人机、无人战车、哨兵机器人、无人驾驶军舰等)。他们警告,世界正进行杀人机器人的军备竞赛,会引起“战争革命”,致命的自动化武器将成为恐怖的杀人武器,会引发空前规模的武装冲突。
技术进步是推动世界发展的重要动力。然而,几乎所有的技术都有利有弊,人工智能技术也是如此。从技术的发展史看,武器的发展总是与技术的进步相伴,技术成为战争的工具。其实,关于技术与道德的讨论早就有之,基本的问题是如何处理技术与道德之间的关系。从本质上看,技术属于科学的范畴,科学不断发展,技术水平不断提升,技术的使用范围也必然扩大,而就技术本身而言,其使用是没有边界的。道德属于哲学的范畴,哲学的基本原理是认识人类行为,包括人与人、人与社会以及国别与世界的关系等。道德是为这些行为确立正义规范,而那些基于公共利益的规范便是社会公德。
人类共处同一个地球,但地域、国家以及阶层把人分割在不同的空间里。生存之争、利益之争、权利之争等,让人一直处在“拼死的”争斗环境之中。在这样的环境中,什么是公德,如何形成和落实公德,就需要人类去规范。从“人类命运共同体”的角度来认识,所谓公德,就是利于共同生存的规范。然而,现实中,公德并非自然产生。常被引述的例子是所谓“公地悲剧”,即大家共用一块草地,尽管每家都知道过度放牧会导致草被吃光,最终使人畜无法生存,但每一家都不会主动减少或者放弃,为了私利甚至增加牲畜的数目。那么,在此情况下,谁来制定规则呢?生存危机感或者道义感会促使大家共同采取行动,制定公约,对牲畜数量、放牧时间进行限定,对草地进行维护等。
从世界范围看,对于国际规约的需求越来越多,一则是因为全球化的发展,把世界越来越紧密地连接成一个整体,相依相存;二则是由于技术的发展对于人类活动的影响越来越大。在诸多的国际规约中,有些是出于共同认知的“议定”,通过集体签字成文,作为公约。涉及战争的典型例子是1925年由37个国家签署的禁止在战争中使用窒息性、毒性气体和细菌议定书,后来越来越多的国家签署,成为一项国际公约。自从成立了联合国,联合国在制订国际规则中开始起核心作用。就涉及战争武器的领域而言,联合国先后制订了核不扩散条约、禁止生物武器公约、禁止化学武器公约等,核武器、生物武器、化学武器等被称为大规模杀伤性武器。核武器是最可怕的,现存的核武器已经足够毁灭人类。然而,禁核难度极大,一是公约国家不包括拥有核武的安理会常任理事国,二是有些国家继续发展核武器。今年3月举行的联合国禁核条约大会,包括安理会常任理事国在内的有核国家无一参加。目前,除安理会五个常任理事国外,印度、巴基斯坦、以色列和朝鲜都拥有核武器,印巴均未签署核不扩散条约,以色列采取不否认、不承认的鸵鸟政策,朝鲜继续我行我素,进行一轮轮核试验。禁核任重道远。
如今科学技术进入到一个新的时期,人工智能技术正以前所未有的速度和规模得以发展和利用。基因技术的开发和利用,特别是克隆技术、基因移植和培育技术的使用涉及人类伦理的道德底线。既然可以克隆羊、牛、猪,克隆人的技术障碍就不存在了,据说有的个人或者公司已经开始进行造人的实验,而且获得了成功。如果说通过试管婴儿为不育者提供生育机会还可接受的话,纯粹出于商业目的或者其他目的的造人,就突破人伦底线了。一些国家已经通过立法禁止造人的活动,但迄今,联合国还没有采取行动。而把人工智能与自动化应用到武器开发上,制造无人机、杀人机器人,显然超越了一般的大规模杀伤性武器概念。美国的无人机用于打击极端分子,但也“误杀 ”了为数不少的平民。设想,未来天上是无人机,地上是战争机器人,而指挥杀人者却远离战场喜笑颜开,那样的境况真是令人不寒而栗,况且,无人机、战争机器人可以作为商品买卖、大规模扩散,如此这般,未来的世界会变成什么样子?
正如专家们所警告的,人类面临的危险的是把战争工业化,人工智能技术已经达到了一个节点,自动化武器的部署将成为现实,现在到了危险的边缘,留给国际社会采取行动的时间已经不多了,“潘多拉的盒子一旦打开就很难关上”。联合国该采取行动了,特别是安理会常任理事国,能否做出表率、起带头作用呢?