中国电子科技大学雷瑞鹏教授谈“人工智能的伦理学和治理”
点击次数: 更新时间:2023-11-19
本网讯(通讯员 景海龙)11月15日晚,应武汉大学哲学学院陈波教授邀请,中国电子科技大学马克思主义学院教授兼科技伦理治理研究中心主任、华中科技大学生命伦理学研究中心执行主任雷瑞鹏教授做了题为“人工智能的伦理学和治理”的讲座,本次讲座是“武汉大学科学技术哲学论坛”系列线上讲座第八讲。讲座由武汉大学哲学学院周祝红副教授主持,中国社会科学院哲学研究所研究员邱仁宗教授评议。
雷瑞鹏教授做“人工智能的伦理学和治理”的讲演
首先,雷瑞鹏介绍了人工智能的概念和发展状况。人工智能是一个复杂的、汇聚性的概念。在中西方历史中,人们对“智能”下过很多定义,以指代包括推理、计划、抽象思维、快速学习等广泛的心理能力,从而对人和其它动物做出区隔。“人工智能”的定义则第一次出现在1956年达特茅斯的一次会议中,用以指制造智能机器的科学与工程,之后一些学者和组织又在此基础上做出过部分补充。总的来说,“人工智能”指的是一种不同于人类智能的机器智能,它主要分为四种形态:(1)狭义人工智能。通过符号推理和逻辑表示诸如思考、学习和解决问题等认知功能。其局限性是,一旦规则被编码到这样一个系统中就很难修改。(2)通用人工智能。可在一个活动中得到有用的训练,并将其应用到另一个活动中。不再只按照我们的命令去执行,具有了反思其目标并决定是否调整它们的能力。(3)拥有人类水平的人工智能。在通用人工智能的基础上,不仅能执行人的认知功能,还拥有情感、道德、直觉等。有意识和自我意识,具备人的认知。(4)超级智能。在认知、情感、道德等方面都超过人的实体。
当前人工智能的迅速发展得益于21世纪初在大数据和算法基础上的机器学习发展。机器学习是人工智能和计算机科学的一个分支,专注于使用数据和算法来模仿人类的学习方式,逐渐提高其准确性。其最重要的发展是深度学习,它使用人工神经网络,模仿人脑中神经元的活动。已证明深度学习在处理被认为的困难问题时特别有效,它能够根据海量数据做出更好的预测。其应用的关键方面包括预测、设计和优化、建模和模拟、自然语言处理、视觉图像处理等。同时另一方面,人工智能又在处理被认为的简单问题时束手无策,如系鞋带。这被称为莫拉维克悖论。但是,人工智能的每一次突破就会被重新定义一次,所以很难预测人工智能能做什么,不能做什么。
然后,雷瑞鹏介绍了人工智能的伦理问题。人工智能没有自我意识,只是纯粹的计算,这是人工智能伦理问题的一个前提性的问题。当然我们不能将人工智能所取得的所有成就都视为不智能的,但需要认识到人工智能不是一个道德行动者。因为它们的行动不具有意向、目的、意识。因此,人工智能的伦理原则是对设计、制造、使用人工智能的人的来说的。
人工智能的伦理问题可以分为近期、中期、远期三个部分。
近期:(1)机器学习需要大量数据训练,否则就无法做出预测。这刺激一些公司和机构非法收集或购买数据,侵犯个人隐私权。(2)机器学习的好坏取决于训练数据的好坏,一个好的机器学习算法在不充分或不准确的数据上训练,也会做出糟糕的预测。(3)如果训练数据充分、准确,但算法本身不好,它同样做出不好的预测。(4)深度学习是一个黑箱,输入和输出之间的复杂相互作用无法得到解释,缺乏可诠释性、可说明性,从而导致信任之类的问题。(5)目前的机器学习系统属于弱人工智能,没有自我意识,也就不具备道德感。因此,不能评估和判定一个行为的对错。(6)如面部识别这样的技术可以帮助警方更快的找到罪犯,但同样也可以被用来监控公民、歧视弱势群体。(7)使用机器学习来制作非常逼真的视频,以抹黑、污蔑他人。(8)很多人担心他们的工作将会被机器人取代,但另外一些人则认为它在淘汰一些岗位时还会创造一些新的岗位。(9)随着机器人变得越来越精致,一些人已经开始视他们为同伴,这带来了一系列伦理问题。
中期:鉴于人工智能可能被人利用做违反伦理的事情,一些学者尝试将价值,尤其伦理价值方面的考虑内置于人工智能。(1)义务论和效用论路径。为机器制定伦理规则,设计符合伦理的机器。其问题是,现实世界中很难知道何时应该运用哪一条规则,且这些规则难以被计算化。(2)美德论路径。根据一个道德高尚的行动者在特定情况下会做什么来为机器建立模型,从而将美德伦理学内置于机器之内。其问题是,我们并不完全清楚谁是一个道德高尚的行为者以及道德高尚的行为者在特定情况下会做什么。(3)案例驱动路径。使用伦理学中的思想实验作为案例来驱动,将伦理学内置于机器。其问题是,不同案例究竟应该使用那种伦理学原则,以及不同的人基于伦理学原则给出的差异性判断应该如何区别。将伦理规则内置于机器的根本性问题在于,道德判断能力具有生物学的基础,而这是机器难以具备的。
远期:远期人工智能的伦理问题是奇点问题。奇点又称技术点,是在未来时间链上的一个假说性的点。在这个点上,技术的增长将变得不可控制和不可逆转。人工智能发展为超越人类的超级人工智能,具有了自我繁殖和自我改进的能力,对人类文明产生巨大威胁。(1)我们应该如何对待这些超级人工智能。(2)我们应该如何确保这些超级人工智能对我们人类友好。奇点以及超级人工智能问题更多的是科幻、未来学的问题,而不是现实世界中的理论问题。
最后,雷瑞鹏简要介绍了人工智能的治理问题。治理不是一种自上而下的监督管理,而是立体的、网络式的、所有利益攸关者参与的。过去几年许多大学、研究机构、学会提出了各自的人工智能治理方案,其中存在“权力”概念过于宽泛、缺乏统一性等若干问题。我们应从人工智能给人们带来的风险与受益出发,以风险为基础,以人为本、安全第一,保护人民免受人工智能系统的潜在风险。在制订治理规则中应该注意:(1)人工智能有改善人民福祉,改进政府决策,提高各行各业工作效率等巨大收益,且目前人工智能技术本身也没有到无法改进的地步。因此不应该禁止,而是负责任的发展。但个别存在系统安全风险的人工智能可以禁止或停用。(2)与人工智能有关的所有利益攸关者都要参与治理,实现真正全面、立体的网络式治理。且政府部门不仅是监督者,同时也是使用者。(3)治理规则不能仅仅是愿望,应具有可操作性。(4)治理规则要能够适应当前人工智能的快速发展,并及时修改。
在评议环节,邱仁宗先生对雷瑞鹏的报告表示感谢,对报告内容进行了总结。他强调:(1)伦理问题不单是一个情感问题,也不单是一个理性问题,而是情感和理性的双重问题,且往往先是情感判断,再是理性判断,理性判断加强或否定之前的情感判断。(2)人工智能是一种新技术,人工智能伦理学是一种实践伦理学,是在实践中发现问题,解决问题。因此不能完全期待通过以往的伦理学理论来解决问题,要在新的实践中去找办法。(3)人工智能伦理学中首先要考虑的是安全问题,怎么预防、追责、问责。(4)对人工智能伦理学问题的解决办法,不仅要推论,还要辩护,从而找到最佳的治理方法。最后,邱仁宗先生提出了一点建议:在人工智能伦理学问题的三个时期划分中,前期划分过多,后两期稍显简单。
主持人周祝红提问道:禁止学生通过ChatGPT来生成论文是否具有可操作性。雷瑞鹏回应道:论文的规范包括原创性,因此应该禁止学生通过ChatGPT来生成论文。虽然目前没有专门的研究来鉴别一篇论文是否由人工智能生成,但国家、政府以及系统的开发公司应该去做这方面的工作。而且这些生成出来的论文本质上是对人类已有知识的一种重复,不具有创新性。
在热烈的互动交流中,讲座圆满结束。来自国内外的600多名听众参与本次线上讲座。
(编辑:邓莉萍 审稿:严璨)