您所在的位置: 首页  >  学术研究  >  学术成果  >  正文

葛四友:论人工智能的政治哲学反思窘境

点击次数:  更新时间:2021-02-08

摘要:

人工智能引发了诸多反思,但其中少有政治哲学的声音,其缘由在于政治环境与人工智能两者的特点:引发人类生死存亡忧思的超级人工智能会摧毁形成政治的环境;自主人工智能会引发道德主体资格的反思,而准自主人工智能引发当下的道德原则是否根本的追问,但只有当两类人工智能实际参与人类生活后,这两者才能获得具体的实质结论。

关键词:政治环境;人工智能;政治哲学反思;窘境


自上个世纪五六十年代提出人工智能概念以来,经过几个起落,人工智能已经成了绕不过去的一个热门话题。王志强教授对此现象做了如下描述,“作为21世纪至今最重要的技术话题之一,人工智能受到持续性的世界关注,不但汇集了计算机科学、信息技术、脑神经科学、心理学、逻辑学、语言学、心灵哲学、伦理学等多学科的讨论,更溢出学科建制之外成为热门公共话题甚至是国家战略。”而吴冠军教授的感受更为强烈,“从2016年“阿尔法狗”以4比1击败世界顶级围棋棋手李世石,并随后一路连胜(并且完胜)所有顶尖人类棋手开始,“人工智能”迅速从一个技术领域的专业论题,变身成为引爆媒体的公共话题。随着学术界各个学科领域(从法学、伦理学、经济学、教育学、军事学到认识论、心灵哲学……)研究性工作的跟进,时至今日,它已不只是一个“热词”,而且正在成为定义这个时代的一个“关键词”。

然而,与这种热闹现象形成鲜明对照的是,人工智能在政治哲学界却没有引起多大的涟漪,有关人工智能的政治哲学反思是少之又少。在中文学界,现在不过是吴冠军和王志强教授的三篇文章。而从国际学界看,无论是从专业杂志还是大众网络,以“政治哲学”和“人工智能”作为关键词搜索,回响也是非常之少。与其他领域的热闹景象相比,我们对人工智能的政治哲学反思似乎处于某种窘境之中。本文试图从政治的环境理解入手,考察对三种类型人工智能开展政治哲学思考的可能性,然后试图表明这种窘境缘由在于政治环境的特点以及人工智能还未真正参与人类生活。

一、政治环境

人工智能对于政治哲学可能产生以下几个方面的影响,一个是人工智能只是改变政治哲学的应用,也就是说已有的理论是可以解决问题的,只是要应用于人工智能这种新环境而已;另一个则是人工智能的发展超越了当前的政治哲学理论,由此在某种意义上把当今的政治哲学理论变成中阶理论,只适用于当今的各种政治条件,从而人工智能的发展促使我们进行更深入的研究,寻找更根本的政治哲学原理;第三个则是人工智能的发展会取消政治出现的条件,从而也就取消政治哲学,无法对之做出政治哲学的反思。王志强教授非常敏锐地意识到这一点,其对“政治何以可能”的强调,也是在考察人工智能产生的影响可能是不同类型的。王教授的分析是从人类群居这个必要条件出发,考虑了协作的必要性与可能性。不过,其分析还可以做出进一步的扩展和补充,使得我们对政治环境的认识更加明确。

为了此目的,我们将从“正义的环境”开始。休谟的论说比较适合作为讨论的起点,他把正义的环境分为正义的主观环境与客观环境。在休谟看来,现实世界的正义起源于有关正义环境的两个事实:一是主观环境中人的自私动机,或说人的仁爱是不足的;二是客观环境中资源不是富足的,而是适度的稀缺。正义的这种环境论说得到了广泛认同,罗尔斯(JohnRawls)在《正义论》中几乎完全采纳休谟的这一论说,按照休谟的看法,只要物质不稀缺或者人是全善的,那么我们就是不需要正义的。不过,葛四友在此基础上发展出了另一种看法,他认为物质的稀缺才能决定我们是否需要正义,而人类的动机状况主要是是决定正义是否可能,而且即使它能够影响正义是否必要,那也是间接的,必须通过影响资源是否稀缺。

在某种意义上讲,这两种看法实际上代表了正义的两类德性:一种政治的德性与一种道德的德性。如果我们把正义看作是政治性的,那么休谟-罗尔斯的看法就是正确的。但是,如果我们把正义看作不仅仅是政治性的,还可以是纯粹道德性的,那么葛四友的看法就可以是正确的。这也就是说,如果所有人都是全善的,那么作为政治德性的正义就消失了,但我们还可以拥有一种道德性的正义:我们对于各种物质的分配依然可以是正义或不正义的。这里的区分实际上预设了某种“政治环境”的论说,也就是王志强教授谈到政治何以可能的条件。这里的预设是:如果所有人都是全善的,那么政治就不复存在,由此作为政治德性的正义也就不再存在。

上面的讨论只是隐含了政治环境的一个条件,对政治环境明确的讨论则是基于对罗尔斯现实主义乌托邦的批判。尽管罗尔斯的公平正义倡导的是现实主义的乌托邦,但还是有很多人认为罗尔斯的理论不够现实,过于理想,引发了政治现实主义的讨论,提出了与“正义环境”相对的“政治环境”。艾尔金(StephenL. Elkin)是这样描述的:这种环境是这样的一种事态,其中大量的人,(1)拥有的目标是不同的,可以引发严重的冲突;(2)他们有意使用政治权力促进其利益;(3)他们倾向于用政治权力压服其他人;(4)他们有时候用语言,有时候用行动显示他们重视利用法律来限制政治权力的使用,同时重视用政治权力来实现公共目标。

我们可以看到,休谟的“正义环境”论说强调了合作是必要的,而艾尔金的“政治环境”则强调政治权力的一面。因此,政治环境的独特性在于我们对于政治权力的理解。这里我们可以从柏拉图的“哲学王”入手。哲学王涉及三个关键词:权力(power)、知识(内在善的知识与工具善的知识)和权威(authority)。权威的来源既可以是赤裸裸的权力,也可以是奠基于纯粹的知识,当然也可以两者兼有。在某种意义上讲,如果权威完全彻底地只是源于权力,那么这里就并不涉及到妥协与协商,由此也就不存在一般意义上的政治。如果权威完全彻底地源于知识,即所有人都是全善的,那么也不存在妥协与协商,因为一切都是按照道德规则来进行。这也就是说,只有当权威的根基是由权力与知识共同确定的时候,这个权威产生的权力才是政治权力。

就此而言,霍布斯提出了政治环境的关键:人们在某种意义上平等的。但是,霍布斯这里谈的人的平等,既不是指人的智力是平等的,也不是指人的武力是平等的,而是指的人的脆弱性是平等的,也就是人都是容易死掉的,人们的武力与智力差别无法改变这一点。正是这两个方向导致了现实权威的复杂性。从一方面来说,人的智力与武力使得人们是有影响力上的差别的,而且人们又很大程度上是自利的,因此一定会利用自己在智力或武力方面的优势占别人的便宜,行动不会完全按照道理进行;但是另一方面,人们就不可能完全不讲理,不可能完全利用自己的智力或武力的优势而随心所欲地对待其他人,因为所有人都是脆弱的,都有脆弱的时候,因此完全不讲道理会遭到报复。政治的环境恰恰就是基于这两个方面的妥协与协作,尽管也充满着不确定性。综合上面的各种分析,我们可以得出现实政治环境的几个特征:第一,人们生活在一起是更有益的,从而合作是必要的;第二,人们的利益是有冲突的,人们不是全善的,因此单凭自愿是无法解决合作问题的;第三,人们都是脆弱的,单凭赤裸裸的武力也是无法解决“合作”问题的;第四,人们是理性的,也很大程度上是自利的,因此,我们既会承认智力与武力上的差别,也会承认人是同样脆弱的,因此彼此间可以做出一定的妥协,认可某类政治权力的权威,使得合作成为可能。

二、超级人工智能与人类的生死存亡

上面我们交待了政治环境的基本观点,接下来我们会分析人工智能的类型,以及我们可以从政治哲学角度如何对其进行反思。人工智能的历史并不是很长,从1956到现在,还不到70年,尽管其本身还并未展现出相应的影响,但是其附属技术的发展却对人类产生了极大的影响,在某种意义上这些技术的影响远远超出了人类初期的预计,这导致我们预估人工智能的发展速度会加快。但是严格来说,目前我们对于人工智能的发展,基本上还是停留在可能性的猜测之中。由此一来,人们对人工智能的分类也是根据目标的不同,而有不同的划分办法。梅剑华教授人工智能类型做了一种概括,“人工智能中广为流传的混淆发生在:弱人工智能、强人工智能、通用人工智能和超级人工智能这四个相互联系的概念之间”。而王志强教授出于自己文章的主题,划出了有限自主性的人工智能、纯知性的人工智能和有目的的强人工智能。当然,随着讨论的目的不一样,强调人工智能的某种可能特性,从而得出不一样的分类。

出于讨论人工智能类型会带来何种问题的反思这一目的,本文基于梅剑华与王志强两位教授的分类,把人工智划分为三类。第一类是准自主的人工智能,即在某个方面可以模拟人类智能,这也是一般人对弱AI的理解,自我驾驶是这种智能的典型代表。第二类是自主人工智能,里面可以分成两个小种,A,弱AI中的通用人工智能,它有着类似人类的理性思考与反应能力,但没有类似的人类情感系统;B,强AI,即既有人类的理性能力,也有类似人类的感情系统的人工智能;第三种是超级人工智能,这种智能几乎所有领域,有着远出人类理性能力的人工智能。这种超级人工智也可能是弱AI,没有类似人类的感情系统,也可以是强AI的一种,即既有远超人类的理性能力,也有类似人类的感情系统。当然这个划分并不是穷尽的,中间还有很多类型,但对本文的目的来说基本是够用的。

我们目前对于人工智能最活跃的反思,主要是对超级人工智能的担忧,特别害怕它会毁灭人类。多年前上映的美国电影“黑客帝国”,只是此种担忧的一种显示。然而,在某种意义上讲,这种反思很难从政治哲学角度进行。因为超级人工智能的存在破坏了政治环境中极关键的一个条件,那就是霍布斯由脆弱性引出的人的平等,这个存在物有赤裸裸的绝对权力,没有任何力量可以对它产生制约,因此也就不再需要妥协与平衡,需要的只是服从或者毁灭。这也就是说,超级人工智能一旦产生,那么就会破坏政治环境,从而就不可能从政治哲学角度来进行反思。如果超级人工智能是全善的,那么它就是上帝。如果它是全坏的,那么它就是撒旦。

不过,值得注意的是,我们当下对于超级人工智能危险性的认知或说担忧,似乎主要是将其设想成了撒旦。然而这种看法在某种意义上受到以下几种思维的影响,产生的判断可能是偏向性的。第一个思维我称之为“黄金扁担思维”。这个思维方式用一个简短的故事可以说得更清楚。话说有个贫穷的樵夫,一辈子没有离开过其贫穷的山村,设想皇帝的生活。其一个想法是,这个皇帝去砍柴时,用的扁担可能是黄金做的。出现这种思维的根本原因是:我们没有能力去设想某些事情。当我们设想超级人工智能的各种情况时,情况比这个樵夫的处境实际上更坏,因为樵夫的问题原则上是可以解决的,即可以通过改变生活环境获得更多认知。而对于超级人工智能的设想,除非我们改变自己的基因,使得自己的大脑达到同样的水准,否则我们是没法子用超级人工智能的思维去想问题的。这种思想试验是有限度的,我们没办法代替超级人工智能去思考问题,因为这种思想试验能够进行的前提是思想试验者的思维能力要极大提升,而当下的我们是无法做得到的。

由于“黄金扁担思维”的局限性,人类在真实设想超级人工智带来的威胁时,很容易陷入第二个思维的影响,也就是“种族假相思维”。超级人工智能使得人类面临生死存亡的威胁,这一认识的形成很可能是缘于我们人类自身的特点。第一,每个人都有生存本能,都是怕死的,会想尽一切办法维续自己的存活。第二,持有种族中心主义。我们把目前的人类中心主义、种族主义与民粹主义等思想杂合在一起,作为我们思考超级人工智的底色,由此得到第三,超级人工智能也是寻求种群的,总是会想生产同类。第四,非我族类,其心必异。第五,超级人工智也是贪婪的,自私的,而且是欲壑难填的。第六,阿克顿勋爵所说的“权力导致腐败,绝对的权力导致绝对的腐败”,也是我们对超级人工智能的设想。有了这几个特征,超级人工智能很大程度上就会接近上帝的对立面:撒旦。这样的思维导致我们相信:超级人工智能诞生的那天,也就是潘多拉魔盒打开的那天,很可能就是人类生死受控于魔鬼的那一天。

除了前述两种思维外,我们实际上还陷于第三种思维误区,这就是“零和博弈”思维。当超级人工智能诞生的时候,我们总是以现有的资源状况估算超级人工智能的反应。即使超级人工智能具有上述的人族特点,但是既然其是超级智能,那么自然可以获得我们无法获得的许多知识,特别是包括能源的利用与开发和各种材料的制造知识。比如说,它可以大大扩展我们对太阳能的利用,还有许多我们现在无法想像的科学与技术的进步。考虑这些因素,也许我们跟超级人工智能的冲突,远没有我们今天想象的那么严重。我们难以找到什么好的理由表明,超级人工智能就一定想要奴役甚至是毁灭人类。

当然,我们不能否认这种风险的存在,关键问题在于概率有多大。就此而言,第一,超级人工智是否能够诞生,我们现在是不确定的。第二,即使超级人工智能真的能够诞生,我们也很难断定它对人类就是有恶意的;第三,即使随后我们的理解越来越加深,当我们能够判断超级人工智可以诞生且它是坏的时候,我们也是没有办法终止这个过程的。由于有这些不确定性的存在,我认为超级智能毁灭人类的风险,既未必比独裁政权发动核战争毁灭人类的风险大,也未必比天外陨石撞击地球从而毁灭人类的风险大。因此,我对人工智能的发展风险,持一种谨慎的乐观态度,没有必要过于担心超级人工智能对人类生死存亡的威胁。

三、自主人工智能与道德主体的资格

现在我们来看第二种自主人工智能的情况。这里涉及梅教授划分的A类通用智能和B类强AI,两者的根本差别在于前者没有类似人类情感的系统,后者则有。这两类AI的出现,主要是引发我们对于道德主体资格的反思:什么样的人工智能可以拥有道德地位,什么样的人工智能可以拥有人类那样的道德地位?这里我们暂且借且凯姆(Francis Kamm)对道德地位的定义:某物X拥有道德地位是因为X就其自身而言是道德上重要的,这也相当说,为了其自身的缘故对其做某些事情是允许的或不允许的。这就迫使我们思考;拥有人的道德地位的关键因素是什么?也就是要满足什么样的条件后,某些事物才有资格成为人这样的道德主体。

按照目前的研究,我们一般会给出两个候选答案,第一个是感受性,指人类获得某些现象性经验的能力或感受质,例如感受痛苦与快乐的能力;第二个则是智性能力:与更高阶智能相关联的能力,诸如自我意识和能够回应理由等。我们先考虑动物的道德地位。非常明显,第一个条件在某种意义上能够使得动物具有道德地位,成为道德客体,也就是人们在行动中要把这些事物作为拥有内在价值的事物,不能够随意处置。但是另一个方面,如果动物是因为其感受性而获得道德地位的,那么感受性强弱是否可以成为获得不同道德地位的原因呢?这在某种程度上取决于动物的道德地位是否还有其他的理据。如果只有感受性这一点,那么一个自然的结论就是动物会因为其感受性不同而享有不同的道德地位,比如鱼跟虾的道德地位就没有猫跟狗那样高。接下来我们考虑人的道德地位,很显然,第一个条件使得我们可以成为道德客体,第二个条件使得我们可以成为道德行为者,简单说是我们能够认识到道德理由,并且依据道德理由来行动。当然,至少在目前,我们认为人类享有平等的道德地位,而且罗尔斯等人以范围属性对此给出了一定的证明,即只要人类的两类能力满足一个最低值,因此就是平等的。

如果人类的道德地位取决于这两者,那么我们就很难否认B类强AI享有人的道德地位。由此我们接下来问,通用人工智,也就是弱AI的道德地位跟强AI相比又如何呢?因为两者的差别仅在于感受性能力。由此自然的问题是,感受性能力在道德地位中的重要性如何?如果感受性对于道德地位是必要的,那么意味着弱AI的道德地位甚至可能不如虾子的地位?这甚至都与我们当下的道德直觉不符合。那么弱AI的地位应该强过猫狗吗?无论答案是什么,我们似乎都无法避免道德地位的程度问题。不仅如此,还有许多未知的问题:比如价值体系是否与人类的感受性能力有着概念性关联。由此自然会出现这个问题:感受性能力是否只是决定我们是否是道德客体的因素,而价值系统才是我们是否是道德主体的关键因素呢?这些问题只靠我们的思辨很可能是无法解决的,可能需要等待这些AI的产生以及参与我们的实践生活后,我们才可能得到确切的答案。

为了讨论的缘故,假使这些问题都可以解决,至少强AI可以获得与人相同的道德地位。只要这点成立,它就会影响我们今天对于道德主体的道德地位或说拥有的道德权利的认知。一旦人工智能有了人类的道德地位,那么人工智能可以生存多久,可以生产多少人工智能?值得注意的是,我们在设想对这些问题的解答时,也会迫使我们反向思考当下社会已有的问题,这里至少有三个紧密相关的问题。

第一个是优生优育问题。由于二战希特勒的影响,优生优育问题往往与纳粹联系在一起,变得臭名昭著。然而,这里的关键问题是,这个臭名究竟是缘于优生优育这个理念本身,还是因为其特定的实践方式?强AI出现后,假设这种AI是可以进一步改进与优化的,这个时候是允许还是禁止这样的研究(包括由强AI自身进行这样的研究)呢?由此引发的问题是,我们是否可以在人类身上做同样的研究,比如说基因增强呢?

第二个是计划生育问题。中国已经进行计划生育多年,近年出现的人口问题导致我们反思计划生育政策是否合适。同样值得问的一个问题是:即便是迄今的计划生育政策都是很糟糕的,甚至是惨无人道的,那么这究竟是计划生育这个理念本身是不人道的,还是说这是由于其实行的政策与策略的问题。比如说,我们是否可以利用经济措施鼓励们人生育,或者利用经济措施抑制人们的生育计划?因为一旦强AI出现后,我们的资源依然还是稀缺的,并不是无限供应的,那么我们是否应该对生产强AI进行某种限制,需要满足某些条件才能允许生产这种强AI,而且生产的数量是要有限的。

第三个问题是养老问题与安乐死问题。假如强AI也有衰老问题,而且到后期是无法赚到足够的钱来维持自己的存在,那么我们有集体责任为其“养老”吗?假如我们肯花资源进行维护,其可以存活非常长的时间,只是每隔五年其维持费用就会加一倍,那么我们会如何应对这种情况呢?我们为了避免巨大的维护费用,是否从一开始就禁止生产强AI呢?还是说到一定的时候就不再供给其维护呢?这种问题的提出显然迫使我们思考现在社会中的问题:首先是植物人的维护问题;其次安乐死的问题;再次是那些不是植物人,有简单意识,但无法活动,需要庞大资源维护的人。

很显然,无论我们如何回答这些问题,都会对我们如何思考当代人的政治权利与自由权利产生深远影响。一旦当人工智能参与实际生活,就很可能会对当今社会中的道德直觉产生强烈的冲击。这些都会导致我们反思现有的政治哲学理论,特别是我们现代社会的分配正义问题。

四、准自主人工智能与道德原则的层次

最后我们考虑准自主人工智能的影响,在某种意义上讲是最紧迫的,也是最有现实意义的。因为这种智能在当下可以说已经现出了,并且正在逐步用于或即将用于我们的生活,从而也是当下我们最应该也最有可能做政治哲学反思的地方。相对于自主人工智能而言,这种准自主人工智能并不涉及改变道德主体的问题,相反,它主要是涉及会极大地改变我们的生活环境,使得我们的生活发生极大变化,由此出现了许多新的可能性,由此原来很多不适合规范考虑的问题进入了我们的反思视野。这些新的可能性可能会对我们既有的理论产生影响,一是为现有的理论争论提供新的素材,二是迫使我们跳出现有的理论争论,使得我们可以反思原来认为正确的伦理原则究竟是根本的原则,还是说只是居间的应用性原则。

我们先来从一个特定的人工智能,也就是自我驾驶这种准自主人工知智能可能冲击现有权利理论的根基。在现有的伦理学体系中,有个著名的“电车难题”思想试验,可以用来检验我们是应该持有义务论还是后果论。然而,自我驾驶技术的出现,“电车难题”不再是思想试验了,而是要进入我们的真实生活了。相对于思想试验而言,现实参与的驾驶难题会有几个重大的变化:第一,这个决策不再是事发当时的瞬时决策,而可以是一种深思熟虑的决策;第二,这个决策不再是个人做出的,而是大众通过立法等形式委托设计师完成,从而是一种集体决策或者说政治决策;由此,第三,我们不再需要考虑违法问题;且第四,我们不再需要顾虑允许个人“杀人”从而产生一系列的精神成本以及其他副效应。

由于有这些根本的变化,我们必须考虑我们在这种新情境下会相应地形成何种道德直觉,我们是否还会承认“杀死”和“听任死亡”有着内在的本质差别,是否还会坚信自我-他人之间的不对称性具有内在的本质差别,会不会认为这些区分只是为了回应人的动机结构与特点。当然,目前这些挑战还只是对我们观念上的影响,但是当自动驾驶等真正进入生活时,就有可能真实地改变我们的真实直觉,从而影响到义务论与后果论等理论间的争论,改变我们今天整个的权利理论及其结构。

第二个方面我们则考虑一般性的准自主人工智能所产生的广泛影响。我们知道,准自主我人工智能主要是在某个单方面有着远胜人类的效率,由此带来巨大的生活与经济变化。吴冠军教授将此现象作为“竞速”统治,“我们都听到过那个著名笑话:当你和同伴碰到狮子,你不需要跑过狮子,你只需要跑过你的同伴。同样的,人工智能并不需要全面智能(亦即成为通用人工智能),只需要在各个具体领域比该领域的从业者更智能,那就足以使人全面地变成该笑话里的那位“同伴”。”吴教授甚至认为,因为半自动的人工智能使得人类失业,然而美国等国家没有认识到这一点,反而认为这是移民潮惹的祸,由此导致了逆全球化风潮。不仅如此,吴教授还认为,“在政治哲学的层面上,危险的是……专用人工智能已经开启的“竞速统治”——在当代世界这个聚合性网络中,人类作为行动元的介入能力,无可避免地正在被迅速地边缘化。”

我尽管不是很赞同吴教授对于逆全球化浪潮的判断以及归因,但准自主人工智能确实对于我们的生活产生了极大的影响。而且我赞同吴教授的一个判断,这个影响可以是坏的,甚至现在就已经产生了一定的坏影响。但是我并不认为这是因为吴教授强调的“竞速统治”,因为准自主人工智能不过是使得市场竞争更激烈,变化更快,并没有什么真正的本质变化。不仅如此,我基于两个方面的理由更倾向于这个影响可以转变成好的。

第一个方面是基于历史发展的经验。按照吴教授的说法,所谓的“竟速统治”已经出现过不止一次了。当人类首次发明小轿车时,轿夫很可能会失业;当人类把轿车变成大卡车时,马车队会慢慢消失。当人类开始汽车的自动化生产时,不少组装工人开始失业。然而,经过长久的调整以及工人自身的争取,这些科技的出现最终有人们是有利的,尤其是中下层阶级。一是因为这种技术的发展带来了更多的其他需求,从其他方面提升了劳动需求;二是这种科技带来的效率提高,使得人类逐渐从繁重的体力劳动以及无意义的重复劳动中解放出来,使得人们。第二个方面则是基于市场经济发展的内在规律。无论市场经济的竞争有多激烈,从个体层面讲甚至是你死我活的竞争;但是从整体的角度看,市场经济要想顺利运转,就必须保证一定程度的共赢。因为只有共赢,只有逐渐使得绝大多数人都获利,提高收入,才能使得人们有相应的消费能力,否则一定会导致生产过剩,破坏市场经济的正常运行。当然,准自主人工智能的出现要求市场经济必须逐渐适应更快的转变节奏,但无论具体过程如何,科技发展的好处必须慢慢地渗透下去,惠及绝大多数人,否则经济的发展就会出现不正常。

然而,我们也知道,这个过程不会自动到来,也不会轻易到来,需要人们的努力争取。这个争取过程中非常重要的一环就是需要我们论证这是值得我们追求的,是我们应该追求的。由此,这就需要我们做出更多的有关政治制度与经济制度方面的反思,其中很有可能需要重新思考边际效用价值论与劳动价值论等理论,重新思考我们市场经济过程中的分配原则,设计出新型的分配正义原则来处理准自主人工智能的影响,从而促进这样的过程早日到来。按照过往的经验,我们可以期望这种分配正义原则使得我们至少朝向类似这样的结果:科技效率的提高使得越来越多的人可以有更多的闲暇,人们的周工时变得越来越少,比如说周工作日变为4天,周工作时间少于30小时等。

结语

上面的分析试图表明,由于人工智能是一个与人如此不同的物种,因此它引起的政治哲学问题远比我们想象的复杂。最吸引人眼球最能引起人们反思的是超级人工智能,可恰恰在这个方面我们无法进行政治哲学反思,因为它会消灭政治中不可或缺的妥协与协商。而自主的人工智能最能引起我们对于道德主体的反思,从而引发人工智能的道德地位与各种道德权利的反思。但是反过来,自主人工智能的出现也会促使我们反思我们当下人的道德地位与道德权利。然而,在自主人工智真正进入人类生活之前,我们很难预料变化的方向:究竟是人工智能更符合人类现有标准才能获得道德地位,还是我们需要修改现有标准去适应人工智能。我们最有可能做出实质的政治哲学反思的是准自主人工智能,因为这种人工智能不会影响我们的道德主体,在很大程度上可以用现有政治理论解决其引发的问题。但是现有的哪种理论更适合解决这个问题,依然有待准自主人工智能真正参与人类的现实政治生活之后,我们才能知道这种影响的真实情况。因此,这些理论会如何进一步影响我们的政治实践,现在来谈还有点言之过早。这也就是说,从整体上看,政治哲学在人工智能方面难以发声、无法做出深入反思的这种窘境并非是偶然的,而是人工智能本身的特性以及人工智能还处于发展的早期阶段所决定的。

作者简介:葛四友,武汉大学哲学学院教授,研究方向为现当代英美政治哲学与规范伦理学。

文章来源:《自然辩证法通讯》2021年第1期