欢迎来到专业的优谦范文网平台! 工作总结 工作计划 心得体会 述职报告 思想汇报 事迹材料 疫情防控 共同富裕
当前位置:首页 > 范文大全 > 公文范文 > 正文

人工智能刑法主体地位之否定——以传统刑法理论为分析框架

时间:2023-08-26 13:40:09 来源:网友投稿

王 超

(中国人民公安大学,北京 100032)

人工智能的发展,是人类科学技术发展的必然,正如习近平总书记所言:“新一代人工智能正在全球范围内蓬勃兴起,为经济社会发展注入了新动能,正在深刻改变人们的生产生活方式。”[1]但不得不承认的是,人工智能给我们带来诸多便利的同时,也蕴藏着大量的安全风险,引起民众普遍恐慌且广泛讨论的是人工智能的犯罪问题。①1978年,日本广岛一家工厂的切割机器人在切钢板时发生意外转身切割当值工人,该案被认为是世界上第一宗机器人杀人事件;
2015年,德国大众汽车制造厂机器人在被安装和调制过程中将工人重重压向金属板,最终导致这名工人因伤重不治身亡;
2020年,日本一名59岁的工人在一家摩托车厂被附近工作的智能机器人杀害。参见马治国,田小楚:《论人工智能体刑法适用之可能性》,载《华中科技大学学报(社会科学版)》2018年第2期;
刘晓梅,刘雪枫:《人工智能刑事责任的主体问题探析》,载《天津法学》2019年第2期;
王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,载《西南交通大学学报(社会科学版)》2019年第1期。如何规制人工智能犯罪问题也成了刑法学界热议的话题,对这一问题的回答,国内外刑法学者产生了大量论争,但目前来看大致有两个主要方向,“一个是主张承认人工智能的法律人格,其后果是对人工智能施加刑事责任;
另一个是不承认法律人格,其目的是表明由于缺乏理论方案和对人工智能本身的发展认识不足,对这一主题的讨论还不成熟。”[2]笔者认为,理论研究应当具有前瞻性,但是前瞻性必须以现实材料为基础,进言之,不能因为缺乏理论方案和缺乏对人工智能发展的认识就否认对一主题讨论的必要性,但也不宜直接承认人工智能的法律人格以追究其刑事责任。

人工智能犯罪作为一种新型犯罪,是指与人工智能的研究开发、设计制造、部署应用等相关的犯罪。当下,我们依然处于弱人工智能时代,涉及人工智能的犯罪案件主要包括两类:一是利用型犯罪,即行为人利用人工智能实施犯罪;
二是产品缺陷型犯罪,即因为人工智能产品自身的缺陷而导致的犯罪。[3]应该说,上述两类犯罪均不存在规制难题。但是,随着技术的逐渐成熟,人工智能必然会拥有更强的学习能力,甚至在一定程度上具备自主识别、自我控制的能力,出现所谓的“人工智能自主犯罪”。此时,是否需要承认人工智能的刑法主体地位以规制该类犯罪?持肯定说的学者认为(强)人工智能具有控制能力和辨认能力,并且可能产生自主意识和意志,进而认为(强)人工智能可以成为独立的刑法主体。持否定说的学者认为人工智能不具有控制能力和辨认能力,即使认为人工智能具有控制能力和辨认能力,也无法将其评价为具有自主意识,即人工智能的控制能力和辨认能力不具有刑法评价意义上的自主性。①肯定说的相关论述可参见刘宪权,胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,载《法学》2018年第1期;
刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,载《东方法学》2018年第3期;
刘宪权,林雨佳:《人工智能时代刑事责任主体的重新解构》,载《人民检察》2018年第3期;
卢勤忠,何鑫:《强人工智能时代刑事责任与刑罚理论》,载《华南师范大学学报(社会科学版)》2018年第6期等。否定说的相关论述可参见王肃之:《人工智能体刑法地位的教义学反思》,载《重庆大学学报(社会科学版)》2020年第3期;
时方:《人工智能刑事主体地位之否定》,载《法律科学》2018年第6期;
叶良芳:《人工智能是适格的刑事责任主体吗?》,载《环球法律评论》2019年第4期;
张成东:《强人工智能体刑事主体地位之否定》,载《时代法学》2019年第5期等。国外的通说观点是人工智能不具备刑事责任,大多数学者都认为人工智能的法律责任由生产者或所有者承担。[4]但近年来,越来越多的学者开始承认人工智能有独立承担法律责任的资格。例如,有学者指出人工智能能够在很大程度上独立于人类控制,表现出高度的自主性和不可约束性,这使得人工智能可以在一些方面不同于传统的机器,刑法的直接应用更值得考虑。[5]

笔者同意否定说的立场,人工智能虽然具有“智能性”的特点,拥有自主识别、自主控制的能力,甚至在一定条件下可以脱离人的控制,但其本质依然是人类的工具,赋予人工智能刑法主体地位的观点在当下以及未来很长一段时间内并不可取。传统刑法理论认为,刑法主体是指实施危害社会的行为、依法应当负刑事责任的自然人和单位。[6]据此,笔者拟以传统刑法理论为分析框架,从以下三个方面着手,否定人工智能的刑法主体地位。第一,人工智能实施的危害社会的“动作”不是刑法意义上的行为;
第二,人工智能不具备刑事责任能力;
第三,对人工智能科处刑罚无法达到刑罚目的。

(一)人工智能无法认识其行为的社会意义

我们在考察人工智能能否成为刑法上的独立主体时,实际上就是在讨论人工智能能否成为犯罪的主体。一般认为,犯罪是应受刑法处罚的行为,无行为则无犯罪。那么什么样的行为才会被规定为犯罪?对于这一问题的思考,学界出现了因果行为论、目的行为论、社会行为论、人格行为论、规范行为论等学说,各种学说都有其自身的影响力,但均存在或多或少的缺陷。但是从行为论的发展历程来看,“行为成立的着眼点依‘身体性’‘意思性’‘目的性’而至‘社会重要性’及‘人格性’的脉络而发展。”[7]行为论的这个发展趋势表明行为观念中的物理因素、自然因素在逐渐减少,而规范因素、评价因素乃至社会价值因素在逐渐增多。事实上,行为论目前的趋势是,“纯粹的存在论的行为论与彻底的价值论的行为论都难以成立,而综合各个要素的复合行为论,或许更有说服力。”[8]以正当防卫为例,如果单纯地考虑防卫行为物理因素或者自然因素,正当防卫显然没有成立的余地,该行为同样是对法益的一种侵害,应当受刑罚处罚。但是,如果单纯地从评价层面或者社会价值层面出发考察防卫行为,就不应存在防卫过当。

德国学者罗克辛曾对刑法意义上的行为作过如下描述,“一个人事先实施了行为这种说法,就是对一个人必须能够把由他发生的一种事件或者一种不做作为他的行为而归责于他这个内容,进行了一种价值评价的结果。”[9]这里的价值评价应当包含两个层面的含义,一是行为人本身对自己行为的价值评价,即行为人应当能认识到自己行为所产生的社会意义;
二是社会规范的评价,即该行为是否具有社会意义以及具有何种社会意义。即使可以在社会规范层面对人工智能的行为进行评价,也很难说人工智能会认识到其自身行为的社会意义。典型的如自动驾驶系统,自动驾驶系统可以识别不同的路况信息,并根据不同的路况作出相应的“行为”。试想,当自动驾驶系统行驶在路上,前方红灯,后方一辆特种车辆(如救护车、消防车等)需立即通过该红灯,但只有自动驾驶系统先通过红灯,后方的特种车辆才能通过。然而,由于程序的设置,自动驾驶系统必须遵守交通规则,不能“闯红灯”,由此耽误了后方特种车辆的救援时间,造成了不可挽回的后果。从规范层面来说,自动驾驶系统遵守交规,应当对其“不闯红灯”的行为进行肯定评价,但从社会意义上说,恐怕这一行为难以被社会评价所肯定。究其原因,在于人工智能只能根据程序或指令作出反应,这一反应虽然可以是物理意义上的行为,但难以说其具有刑法上的意义。换言之,人工智能的行为“只是在人为的干预下按照指令执行操作,即便人工智能技术继续发展,甚至能够脱离人类的控制,自主做出某种行为,但其仍然无法明白自身行为的意义。”[10]

(二)人工智能的行为不具备有意性

刑法意义上的行为应当具备两个要素,有体性和有意性。有体性主要表现为身体的动静,即行为必须以一定的方式呈现与外部[11];
有意性是指行为是人的思想的体现,是受人的意识和意志支配的。[12]目前,国内大多数通行教材或者著作都承认,行为的有意性是区别刑法意义上的行为和其他行为的关键。诸如非人类行为、高度自动化或反射性反应的行为、人在睡梦中或无意识状态下的行为、不可抗力下的行为、人在身体受到外力强制情况下实施的行为等,由于缺乏有意性,虽然也是行为,但只能认为是一般行为,而不是刑法意义上的行为。由此看来,如果要承认人工智能所实施的危害行为是刑法意义上的行为,就需要承认其行为具备有意性。有意性的关键是人类的意志和意识,更进一步说,是人类的自由意志和意识。亦即,刑法意义上的行为应当是受人类自由意识和意志支配的行为。如果我们将主语扩大至人工智能,就是刑法意义上的行为是受人类或人工智能自由意识和意志支配的行为。这一命题成立的前提是人工智能具备自由意识和意志,但人工智能并不具备自由意识和意志。即使如大多数支持人工智能刑法主体地位的学者所言,人工智能可以具有自主判断和决策的能力,这些所谓的自主判断和决策也是基于设计者或者制造者事先编写的程序而实现的,其实现的是人工智能设计者或者制造者的意识和意志,并非人工智能的自由意志和意识。

事实上,大部分支持人工智能具备刑法主体地位的学者都有一个看似无懈可击的论点,即人工智能可以突破研发者、制造者、使用者的编程设计或指令程序,进行自主决策并实施相应行为,从而实现其自身的意识和意志。[13]笔者认为,这样的观点是经不起推敲的。首先,以人类目前的科技水平,人工智能是否真的可以突破编程范围还是个未知数,目前来看,这种“突破”只是学者们没有科学依据的假设。其次,即使人工智能真的可以突破原始编程的范围,这种“突破”也是由研发者、制造者、使用者事先通过编程或指令植入的。换言之,人工智能的这种“突破”仍然是研发者、制造者、使用者的意识和意志的体现,而并非其自身的意识和意志。只要离开了研发者、制造者、使用者,人工智能的“突破”就无法实现。这样看来,人工智能的行为是设计者或者制造者的意识和意志的体现,并非其独立意识和意志的体现。因此,这种行为在本质上仍然是不自由的。所以人工智能的行为与非人类行为、高度自动化或反射性反应的行为类似,不具备有意性,不是刑法意义上的行为。

总而言之,人工智能的行为是基于程序设计而产生的,其并不能认识到自身行为的社会意义。即使如学者所言,人工智能可以“突破”程序设计“自我进化”,这种“突破”或者“自我进化”也是基于程序设计而发生的,是设计者、制造者意识和意志的延展。因此,人工智能的行为并不是刑法意义上的行为,不能为刑法所规制。

刑事责任能力,是行为人对自己实施的犯罪行为有承担刑事责任的能力,其核心是辨认能力和控制能力。[14]辨认能力简单来说就是辨别是非的能力,控制能力是根据辨别是非的结果来决定哪些事情可为,哪些事情不可为的能力。人工智能拥有强大的算法能力,可以很轻松地辨别是非,再通过相应的程序作出反应。从这个意义上说,人工智能具有的辨认能力和控制能力甚至远超人类,但是这种辨认能力和控制能力并非刑法意义上的辨认能力和控制能力。否则,当前的弱人工智能也可以根据算法辨别是非,并通过程序作出相应的反应,但是支持人工智能具有刑法主体地位的论者恐怕也难以承认弱人工智能可以成为刑法上的主体。以自动驾驶汽车为例,通过事先植入的程序和指令,自动驾驶汽车可以很轻松地辨认交通规则、路况信息等,并根据不同的道路情况作出相应的反应,控制车辆安全行驶,但是自动驾驶汽车的这种“识别——控制”的过程只是“如果……就……”的程序反应,不是刑法评价意义上的辨认能力和控制能力。如果自动驾驶汽车发生交通事故,并达到交通肇事罪的程度,我们不可能将其认定为交通肇事罪的犯罪嫌疑人或被告人对其追究刑事责任。

(一)人工智能不具备刑法意义上的辨认能力

刑法意义上的辨认能力考察的是行为人是否具有认识能力,这是一种认识自己行为的内容、社会意义以及结果的能力。[15]以故意犯罪中的“明知”为例,通说认为,故意应当包含认识因素和意志因素,其中的认识因素是指明知自己的行为会发生危害社会的结果。[16]这里的“明知”不仅需要行为人明知自己的行为会发生某种危害结果,还需要明知自己行为的内容和社会意义。[17]换言之,辨认能力不仅要考察对行为所造成的客观事实(结果)的辨认,还要考察对对行为所产生的社会意义的辨认。人工智能基于算法的强大,当然可以轻易计算出自身行为所产生的危害结果。例如,自动驾驶汽车可以根据路面情况对驾驶状态及时作出调整。但是这个过程只是基于算法和程序的反馈,并非人工智能基于自身意识和意志的自由选择,即发生外部事件A,人工智能就会作出符合外部事件A的反馈——行为B,进而产生结果C。通俗来讲,这就相当于向湖中投入一颗石子,根据石子的体积、质量等的不同,湖面会呈现出不同的波纹,但湖面波纹的大小、持续时间的长短等绝非湖自身的自由意志所决定的。

从外部事件A到结果C的这个过程,是基于算法和程序而产生的,因此,人工智能只能辨认出根据外部事件A应当作出行为B,从而达到结果C。即人工智能只能辨认出行为B会产生结果C这一客观事实,但无法理解行为B的社会意义。简言之,人工智能只能根据外部事件A作出行为B,但无法理解为什么会作出行为B,更无法理解行为B所产生的结果C意味着什么。例如,犯罪人在人工智能中植入相应的“杀人”程序,人工智能根据这一程序(外部事件A)实施“杀人”行为(行为B),导致被害人死亡(结果C)。此时人工智能只是依据犯罪人植入的“杀人”程序(外部事件A)作出“杀人”的反馈(行为B),但它无法理解对“杀人”这一指令作出的反馈已经触犯刑法,更无法理解被害人死亡(结果C)对被害人、被害人家属甚至这个社会意味着什么。不可否认的是,无论人工智能多么“智能”,它都无法摆脱“人工”的烙印,在人工智能的眼里,世界是由数据和算法构成的,它的一切行动都只是基于数据和算法作出的反馈,它无法理解和认识这种反馈所带来的外部意义和社会价值。[18]换言之,人工智能的一切行动都是基于数据和算法而产生的,它可能会认识到这些行动的内容和结果,但无法理解和认识其社会意义。

或许有论者认为,以人类科学技术的发展情况来看,未来会有可以认知自己行为的外部意义和社会价值的人工智能。但就目前人类的科技水平而言,能否研发制造出拥有自主意识和自由意志的人工智能在未来很长一段时间内尚存疑问。即使在未来,人类在技术层面可以实现拥有自主意识和自由意志的人工智能的研发,这种技术能否在法律层面、道德层面、伦理层面得到认可而被广泛应用也是一个值得思考的问题。至少目前来看,“这些机器(即人工智能)不必为它们的行为承担责任,因为不存在所谓的机器人犯罪意图这种东西。机器人缺乏承担刑事责任的前提,例如自我意识、自由意志和道德自主性,因此很难想象法庭因机器人的恶性而宣告其有罪……现代刑法中施于惩罚的正当性很难适用于今天的自动化机器(即人工智能)。”[19]

(二)人工智能不具备刑法意义上的控制能力

刑法意义上的控制能力是根据认识能力支配自己实施或不实施某种行为的能力,考察的是行为人是否存在意志能力。[20]如前所述,人工智能的所有行动都是基于数据和算法而产生,那么自然也就不存在自由支配自己实施或不实施某一行为的说法。简单来说,人工智能的所有行动都只是石子投入湖中后湖面所产生的波纹,是从外部事件A到行为B的必然结果,即人工智能是在数据和算法的范围内“控制”自己的行为[21],并非人工智能自由意志的反映。即使未来人工智能日渐强大,可以拥有极强的深度学习能力,但遵循程序“按部就班”的反馈,无法发展出价值判断的能力,而价值判断是控制能力的重要前提之一。[22]

总而言之,人工智能可以通过强大的算法轻松“辨认”外部事实,并通过相应的程序对自己的行为作出最优的“控制”,但是这种“辨认”和“控制”“只是由人类特定指令、符号组成的计算程序所引发的决定,它无法理解自己行为的外部意义或社会价值。”[23]以电影《流浪地球》中的智能机器人Moss为例,其在“辨认”地球无法脱离木星的引力范围后,作出了将“领航者”计划转为“火种”计划的“控制”。这一“辨认——控制”的过程看起来是很完美的,但它同时意味着需要放弃整个地球以及地球上的所有生物。刘培强在洞悉这一计划后打断了Moss的“控制”,将空间站推向木星并引爆,帮助地球成功逃离木星的引力范围。面对同样的外部问题,作为人类的刘培强和作为人工智能的Moss作出了截然不同的决定,这就是人类的辨认能力和控制能力与人工智能的辨认能力和控制能力的差异。未来的人工智能或许可以根据自身算法和程序“辨认”外部环境,并作出最优“控制”,但这种最优“控制”是通过特定的程序或算法得来的,不一定符合人类的认知、情感、道德、社会价值等人工智能无法理解的范畴。Moss在电影中还说了一句经典台词——“让人类永远保持理智,果然是奢望。”人工智能或许可以永远保持理智,但这种“理智”“也只是在人为的干预下按照指令执行操作,即便人工智能技术继续发展,甚至能够脱离人类的控制,自主做出某种行为,但其仍然无法明白自身行为的意义。”[24]理解自己行为的外部意义和社会价值,恰恰是“不理智”的人类所特有的。

刑罚的正当化根据或称刑罚的目的是报应和预防。报应立足于行为人的已然之罪,旨在依据行为人的主观恶害程度及客观危害程度对行为人科处刑罚,预防则侧重于未然之罪,旨在通过刑罚预防行为人及普通国民再犯罪。

(一)对人工智能科处刑罚无法达到预防的目的

对犯罪后的行为人科处刑罚的目的之一是预防犯罪,包括特殊预防和一般预防。如果承认人工智能的刑法主体地位,那么对“犯罪”后的人工智能科处刑罚的目的之一就是为了预防人工智能的犯罪,同样存在特殊预防和一般预防。特殊预防是为了预防“犯罪”后的人工智能再“犯罪”,一般预防是为了预防其他人工智能“犯罪”。问题是,对“犯罪” 后的人工智能科处刑罚真的可以达到预防犯罪的目的吗?笔者对此持否定观点。

对人工智能科处刑罚无法达到特殊预防的目的。众所周知,特殊预防主要通过物理强制和心理强制等方式预防犯罪人再犯罪。[25]其中物理强制的方式主要通过适用死刑和其他种类的刑罚予以实现。但如何对人工智能适用死刑和其他刑罚,在当前的刑罚体系之下,这个问题是很难回答的,因此大多数支持人工智能具备刑法主体地位的论者都支持重构刑罚体系以惩罚犯罪后的人工智能的观点。

根据这些学者的观点,针对人工智能的刑罚方式主要有三种:一是针对人工智能系统的刑罚,包括删除数据、修改程序以及永久销毁系统的操作;
二是针对人工智能实体的刑罚,包括限制使用、社区服务以及永久销毁实体的操作;
三是罚金刑。①相关论述可参见刘宪权:《人工智能时代刑事责任与刑罚体系的重构》,载《政治与法律》2018年第3期;
蔡婷婷:《人工智能环境下刑法的完善及适用——以智能机器人和无人驾驶汽车为切入点》,载《犯罪研究》2018年第2期;
王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,载《西安交通大学学报(社会科学版)》2019年第39卷第1期;
李兴臣:《人工智能机器人刑事责任的追究与刑罚的执行》,载《中共青岛市委党校·青岛行政学院学报》2018年第4期;
〔德〕拉塞·夸尔克著,王德政译:《人工智能机器人的刑事可罚性》,载《中州学刊》2020年第1期等。先不论构建新的刑罚体系是否经济、是否合理,即使构建了新的刑罚体系,还应再回答这些刑罚措施的对象是什么?是人工智能本身?还是以人工智能体为载体的程序?

如果认为刑罚的对象是人工智能本身,那么对其执行死刑就是将其实体彻底销毁。但是实体被彻底销毁后,原实体之上的程序依然可以载入新的实体,新的实体依然拥有原实体上的“犯罪”程序,可以重新实施“犯罪”行为,无法达到特殊预防的目的。此外,劳役、自由刑等刑罚措施的目的是让人感到痛苦,人工智能作为非生命体,无法感知痛苦,对其科以劳役、自由刑等刑罚显然意义不大。而罚金刑最终仍然是转嫁到人类之上的,也达不到刑罚特殊预防的目的。

如果认为刑罚的对象是程序,那么通过修改程序、删除程序等技术手段或许可以剔除致使人工智能“犯罪”的部分程序。但是修改程序、删除程序,通过研发者或者制造者的技术手段就能完成,无需“劳驾”刑法。与其费尽心思为人工智能设计一套刑罚体系,不如在其“拥有了行为的选择权”之前就采取相应的措施,杜绝人工智能走上“犯罪”的道路。再者,修改程序和删除程序都是极为专业的工作,有时甚至只有人工智能的研发者或者制造者才能完成这一工作,那么即使法院判决修改程序或者删除程序,恐怕也难以执行这一“刑罚”,即使允许法院委托第三方进行执行,法院也难以对第三方的执行进行监督。

即使在物理强制层面,可以通过技术手段实现对人工智能科处刑罚,从物理上达到预防再犯罪的目的,但是却无法在心理强制层面达到这一目的。这是因为“一个人如果不知道自己在干什么,或者不能控制自己的行为,刑事惩罚对于他来说没有威慑力”。[26]进言之,对人工智能科处刑罚无法使其产生畏惧、痛苦、悔罪等心理,即使通过技术手段剥夺其自由,暂时达到预防犯罪的目的,待其“刑满释放”,由于没有真正认罪服法,依然会通过自主学习或深度学习而再次犯罪。

对人工智能科处刑罚无法达到一般预防的目的。刑罚的一般预防是针对犯罪人以外的人而言的,主要表现为威慑、安抚、教育。具体来说就是威慑潜在的犯罪人不敢犯罪;
安抚被害人及其家属的心灵;
教育其他国民知法、守法。当然这样的划分并不绝对,对犯罪人科处刑罚同样可以威慑被害人及其家属不能采用违法犯罪的方式报复犯罪人或其家属。但无论威慑、安抚还是教育,都是心理层面的内容,与人类的情感息息相关。人工智能不具备这样的情感,很难说处罚一个“犯罪”的人工智能可以使其他想要“犯罪”或准备“犯罪”的人工智能产生恐惧心理,进而放弃犯罪。因为处罚不具有自由意志的行为人(人工智能),不能抑制在将来的同样状况下发生相同的“犯罪”行为。[27]

有学者认为,对“犯罪”后的人工智能科处刑罚同样可以达到一般预防的目的,一方面,可以对被害人及其家属起到慰藉的作用;
另一方面,可以使其他人工智能“悬崖勒马”,自觉控制自己的行为,对人工智能犯罪起到“防患于未然”的作用。[28]笔者认为这样的观点是值得商榷的。首先,对人工智能科处刑罚是否真的可以对被害人起到慰藉作用是值得怀疑的。以人工智能“故意杀人”为例,被害人家属愤恨的恐怕不是人工智能本身,而是人工智能的研发者、制造者、销售者、使用者等相关主体,更进一步说,被害人家属愤恨的或许是人工智能这项技术。如此说来,将“犯罪”的人工智能彻底销毁又如何能慰藉被害人及其家属呢?其次,既然人类科技已经可以制造出具有“辨认能力和控制能力”的人工智能,那么完全可以将世界上的所有法律文件、法学专著、案件判例通过程序植入人工智能的“大脑”,使所有的人工智能都“知法”“懂法”“守法”,无需再多此一举通过刑罚一般预防的功能达到“防患于未然”的目的。

(二)对人工智能科处刑罚无法达到报应的目的

报应主义依据犯罪人的主观恶性程度以及客观危害程度对犯罪人进行非难。通说认为,能够对犯罪人进行非难——犯罪人具有非难可能性的前提是犯罪人具有相对的意志自由。[29]这里我们可以将人工智能类比一下刑法上的精神病人,“缺乏辨认能力或控制能力的精神病人,不能认识到其行为的性质是善还是恶,是合法还是违法,也不能控制自己实施合法行为而不实施不法行为,也就不具有接受法律规范的要求、实施合法行为的可能性。”[30]同理,人工智能所实施的行为是根据事先植入的程序和指令作出的反应,不是人工智能相对意志自由的体现。虽然人工智能可以自由实施某些特定行为,但它无法认识到这些行为是善还是恶,是违法还是合法。因此,人工智能就不具有接受法律规范的要求、实施合法行为的可能性。“如果行为人缺乏做出违反法律理性选择的能力或不能控制自己的行为,则其不能成为道德的代言人,相应地也不能成为道德谴责的对象。”[31]人工智能由于缺乏人的理性,所以在道德评价上,甚至与石头无异。“惩罚这样一个丧失理性思考能力的人,就像惩罚有个无生命的事物或者惩罚动物一样,是有损尊严的,也是不值得的。”[32]人工智能同样是缺乏理性思考能力的,因为人工智能无法成为道德谴责的对象,对其科处刑罚同样是不值得的,也是不符合报应主义立场的,无法达到报应的目的。

此外,在传统刑法框架内,人工智能涉及犯罪时,可能会有多个责任主体,甚至会出现各个责任主体相互推责的情形。例如,自动驾驶汽车发生交通肇事,其责任主体是驾驶员还是汽车厂商存在争议,但这绝不是简单赋予自动驾驶汽车刑法主体地位就可以解决的。相反,赋予人工智能刑法主体地位不仅不能解决归责问题,反而可能为真正的责任主体逃脱归责。例如,在人和人工智能共同协作处理某些任务时,如果因人的操作失误而出现了致害后果,不排除人会将责任推卸给人工智能。①2018年年末,“达芬奇”手术机器人(Da Vinci Surgical System)即发生了在心脏手术时由于故障导致患者死亡的事故。随后即被证明医生对机器人的操作失误方为事故发生的主要原因。此前该手术机器人亦发生了多起事故,医疗人员常将责任推卸至人工智能机器人之上,而机器人的生产者又以各种理由主张产品责任不成立,从而导致受害者索赔困难。参见韩旭至:《人工智能的法律回应:从权利法理到致害责任》,法律出版社2021年版,第47页。再如,假设人工智能“出厂”时不具备自主意识和自由意志(状态一),但在使用过程中因重复学习、深度学习等而产生自主意识和自由意志(状态二),那么人类在人工智能处于状态一时将其用于犯罪,但在犯罪过程中人工智能“进化”到了状态二,怎么分配人类和人工智能的刑事责任?

“人是具有自由意志的,对基于自由意志所实施的客观违法行为,能够进行非难、追究其道义上的责任,为追究这种责任,对行为进行报应的方法就是刑罚,刑罚是对恶行的恶果,以对犯罪人造成痛苦为内容;
对犯罪人进行报应,可警告一般人,以期待一般预防的效果,刑罚以一般预防为主要目的。”[33]人工智能不具有自由意志,其所实施的行为只是设计者、制造者或使用者意志的体现,无法追究其道义上的责任;
人工智能无法感受到刑罚的痛苦,对“犯罪”的人工智能科处刑罚达不到警告其他人工智能的效果。因而,在传统刑法框架内,人工智能不可能成为刑法上的(犯罪)主体。那么未来随着人工智能技术的不断发展和完善,是否可以突破传统刑法理论进而承认其刑法主体呢?笔者认为,就目前人类的科技水平而言,能否研发制造出拥有自主意识和自由意志的超人工智能在未来很长一段内尚存疑问。即使在未来,人类在技术层面可以实现拥有自主意识和自由意志的超人工智能的研发,这种技术能否在法律层面、道德层面、伦理层面得到认可而被广泛应用才是首要思考的问题。

猜你喜欢刑罚意志刑法时代新人与意志砥砺马克思主义哲学研究(2021年1期)2021-11-22过度刑法化的倾向及其纠正法律方法(2021年4期)2021-03-16刑罚威慑力的刑法学分析活力(2019年22期)2019-03-16代运为名行诈骗 构成犯罪获刑罚今日农业(2019年16期)2019-01-03《刑法》第217条“复制发行”概念的解释与适用知识产权(2018年4期)2018-05-09断盐也是一种刑罚少儿科学周刊·少年版(2017年4期)2017-07-01《西厢记》中的理性意志与自由意志影视与戏剧评论(2016年0期)2016-11-23刑法的理性探讨中国市场(2016年45期)2016-05-17刑罚的证明标准人间(2015年22期)2016-01-04释疑刑法浙江人大(2014年6期)2014-03-20

推荐访问:刑法 人工智能 否定

猜你喜欢