复旦大学徐英瑾教授“边沁、罗尔斯与分配正义的算法化研究” 线上讲座顺利举行
点击次数: 更新时间:2023-11-06
本网讯(通讯员 景海龙) 11月2日晚,复旦大学哲学学院徐英瑾教授应邀做题为“边沁、罗尔斯与分配正义的算法化研究”的讲座,本次讲座是“武汉大学科学技术哲学论坛”系列线上讲座第九讲。讲座由武汉大学哲学学院陈波教授主持,山西大学哲学学院梅剑华教授评议。
徐英瑾指出,人工智能的火热在国内伦理学研究中引起了广泛关注,但这些讨论很多只是浮于表面。以政策为导向,仓促的应用一些哲学理论,而没有厘清相关的基础哲学问题。在这一思想的指导下,他认为,目前关于人工智能运用的主流制约性规范,往往受到康德伦理学的影响,但是学界对于相关的规范伦理学立场的可算法化问题却一直没有系统的检讨。而无论是边沁的功利主义理论,还是罗尔斯的分配正义理论,甚至德性论关于社会资源分配的思想资源,其实都无法成为某种可以被算法化的思想指导。接下来,他借助电车难题以及对电车难题的变种对该问题进行了分析。
首先,徐英瑾指出,在边沁的功利主义中,衡量对错的标准是:“是否能够让最大数量的人获得最大数量的快乐”。但是,这种观点在电车难题中面临着如何衡量这种“最大数量的人获得最大数量的快乐”的问题。一方面我们难以衡量实际的快乐,另一方面我们无法衡量可能的快乐。对此边沁本人的解决方案是诉诸对于社会中每个主体的主观快乐程度的心理学度量,即所谓的“幸福计算”。但是该方案仍然面临着不同群体中主观快乐的认知差异,例如当两国交战时,仅仅是绑在轨道上的人的国别差异就会让电车难题在不同国家中出现迥异的“幸福计算”。边沁功利主义的这一缺陷在密尔的功利主义理论中得到了克服,密尔所理解的快乐具有鲜明的利他主义维度,且更看重某个行为所产生的长远效应。但是,密尔虽然克服了功利主义在边沁的理论中的缺陷,也放弃了其中的优点,因为这种长远效应的快乐不可操纵、不可计算。
然后,徐英瑾指出,罗尔斯的社会资源分配方案虽然在学理上与功利主义不同,但这种不同在实际案例中将会迅速缩小,从而对现实问题给出差不多的解决方案。“无知之幕”是罗尔斯理论中的核心概念,借由“无知之幕”对个体背景信息的屏蔽,产生足够的公平、公正。而他本人则试图从这一拟想出发,在社会资源分配中导出一个康德式的合题,其中正题是个体的利益总是具有优先性的,反题是霍布斯的社会契约论,合题是只有建立一个能够将任何个体都视为目的的社会契约架构,每个人才能保证其基本利益不受侵犯。这种方案面临着资源分配不足的问题。罗尔斯对此的解决办法是引入机会均等来代替对于物质资源的直接平分,其所对应的最直接手段就是抽签。但是这种解决办法在电车难题这样的具体案例中是无法实际实施的,并且需要预设不公平者的存在。而且相关实证心理学研究表明,对电车难题的“无知之幕”化的改写版更容易让人们做出功利主义的应答,因为“无知之幕”对背景信息的屏蔽使得人们更容易将电车难题中的人视为一种符号,难以产生共情,从而做出功利主义的决定。徐英瑾还指出,罗尔斯本人对其理论所打的差异化原则补丁依然难以用计算方式得到实施。
最后,徐英瑾指出,德性论-社群主义的分配方案也无法被计算化。从形而上学角度看,德性本身是一个“禀赋”性概念,是某主体在特定条件下展露出某些具有正面价值的行为的倾向性。在一种粗暴的思想实验中,为每个人分配一个德性积分,带入电车难题中似乎可以得到一种相较于功利主义更具计算性的方案。但是,这种方案面临着:(1)该德性积分只能衡量一般性的个体,在诸如《悲惨世界》中的冉·阿让这样的特殊个体上违反道德直觉。(2)该德性积分基于了一种休谟式的假设,假设有某种德性表现的某一个体还会在未来继续给出类似的德性表现。而这在诸如“周处除三害”中周处(三国人物)这样的例子中是违反道德直觉的。(3)该德性积分面临着德性评价标准在不同社会亚系统之间不兼容的问题,从而在整个社会系统的德性评价上难以给出一个确定、合理的标准,并且将会消耗大量的社会资源。(4)根据古典德性论代表人物亚里士多德的观点,德性具备“实践智慧”,即所做出的道德决策对于特定语境的敏感性。因此,对电车难题无法给出一般解法,也无法被计算化。
徐英瑾认为,算法化需要一个量纲,但对诸如幸福、道德这样的概念无法确定其量纲,这是几乎所有主流的规范伦理学进路都难以被真正算法化的原因。并且,数据只是一种工具而不是本体,过分强调算法化将会破坏现存的多元评价体系。同时,人类社会的运作是建立在公开性和隐私性的平衡上,算法化将会破坏这种平衡,这些都为人工智能伦理学的分配正义上的全面应用蒙上了阴影。但是,站在功能主义的角度,将人的某些部分功能进行算法化是可以被期待的,其中就包含人工智能伦理学。
在评议环节,梅剑华对徐英瑾的报告表示感谢,并对报告内容进行了总结,然后从人工智能伦理学和思想实验两个方面提出了问题:(1)人的心灵问题以及相关联的动物的意识问题、人工智能的意识问题是目前学界的重点话题。报告中提到的具有亚里士多德式实践智慧的人工智能是一个美好的理想,但现实中很难实现。相比之下,近年来广泛讨论的一种大众伦理似乎更容易实现,并且可以与当前人工智能研究相匹配。这种观点认为,人工智能的伦理行为不应该基于规则,而是通过对庞大的道德数据库进行提取,使人工智能像人一样,在面对相似的情况时做出相似的选择。(2)报告中提到了电车难题及其很多变种,这些变种对原有电车难题进行了加厚、历史化。思想实验虽然不同于科学思想,但其本身也有一些规范,它通常是无人称的、简单的,因为一般性的思想实验更容易得到共识。
徐英瑾回应道:(1)人工智能的伦理考量确实可以基于当前人工智能研究范式,把道德场景的输入与最后行为的输出看作是一种映射规律。但是,如何选择这些输出数据本身是有政治偏好的,要解决这种偏好的影响,绕不开一些规则性的解释。(2)典型的思想实验的确无人称、简单,但是现在已经有一些实验室在做这种特殊化的思想实验,在其中引入很多文化因素。另外一个相似的例子是,博弈论本身的结构可以很简单,但博弈论的因素可以很复杂。
雷瑞鹏教授提问道:在不同的伦理学中,德性论偏向的是对个人的约束,因此将其扩展到社会决策层面时存在很多问题。在这种前提下,德性论是否还适合作为人工智能伦理辅助决策的适合备选。
徐英瑾回应道:他选择德性论的原因在于德性论不反对偏见。并不是所有偏见都是有害的,它是一种理解的前结构,我们需要有一种先验值来适应这个世界。哪些偏见是好的,哪些是坏的不能被先验排除,需要进入到实践的循环之中。德性论不反对这种过程,甚至认为它是德性的一部分,因此作为一个备选会有很强的生命力。
近300名听众出席了此次讲演。在热烈的互动交流中,讲座圆满结束。
(编辑:邓莉萍 审稿:严璨)