欢迎来到专业的优谦范文网平台! 工作总结 工作计划 心得体会 述职报告 思想汇报 事迹材料 疫情防控 共同富裕
当前位置:首页 > 范文大全 > 公文范文 > 正文

试论智能算法主体化

时间:2023-09-18 15:00:09 来源:网友投稿

邹开亮 刘祖兵

摘 要:

数字文明社会孕育着智能算法主体化的现实需要,ChatGPT的问世尤其强化了这种需要。主流观点对智能算法主体化或限制或否定,其目的在于维护基于康德人类中心主义哲学建立的现代法律制度,但已难以满足当下社会关系复杂化和多元化的现实要求。现有法律制度剥夺智能算法的责任能力和歧视智能算法,对此,应当建立智能算法责任能力保障制度。因为深度学习能力使智能算法具有认知能力和朦胧的独立意识,而法律须具备前瞻性,应当将智能算法视为法学领域之延伸和规则外化,构建“增进式”的智能算法法律人格授予机制,实施常规动态管理。主体资格之实质审查当以伦理审查为重点,以“五大原则”为纲领,构建系统化的伦理审查机制,实现道德施治常态化。

关键词:

ChatGPT;
智能算法;
主体资格;
责任能力;
增进式;
伦理审查

中图分类号:D923

文献标识码:A

文章编号:1673-8268(2023)02-0063-13

本世纪伊始,第三次人工智能(AI)狂潮兴起。人工智能技术助力传统工商业得以实现数字化转型,亦将诸多新问题摆在立法者面前:人工智能生成物知识产权归属亟需明确,智能算法(artificial intelligence algorithm)本体保护路径尚需厘清,人工智能侵权及刑事责任有待界定……在更深层次上,这些问题均以明确智能算法主体地位为前提。

美国OpenAI公司于2022年11月发布的基于GPT-3.5架构的智能文本撰写与聊天工具——ChatGPT显示出越来越强的主体性特征,它的横空出世将智能算法主体化争论推向了又一崭新高度。

目前,学术界多致力于人工智能客体论的研究,并期待智能算法的权利义务分配得以具体化。尽管学术界提出了包括监管审查、信息披露、算法解释和数据保护等一系列的规制路径,并试图为算法利益享有者设定更多义务、为智能算法潜在侵权对象提供更多保护和救济[1],但是仍无法解决对算法侵权的预防和救济问题,这制约着智能算法的长足发展。也有一部分学者转向对主体论的研究,但研究对象多为以智能机器人为代表的智能体。因为智能体的核心是智能算法,我们便有了深入探讨智能算法主体资格的现实价值。作为当下社会功能实现所必需的智能化个体,智能算法在整个数字文明进程中所发挥的社会功能之重要性不言而喻,对其法律主体问题的回应也成为解决上述难题的根本前提。因此,有必要借此突破口以深入探索智能算法主体地位的构建,从而促进科学技术向上向善,推动全社会数字化转型和社会变革。

一、智能算法的一般原理

(一)智能算法的内涵

“算法(algorithm)”一词最早可追溯到公元805年,阿拉伯数学家阿科瓦里茨米(Al-Khwar-izmi)于其著作《波斯教科书》(Persian Textbook)中首次系统地归纳了四则算数运算,“算法”自此被人类沿用至今。自人工智能阿尔法狗(AlphaGo)战胜李世石后【Google公司研发的AlphaGo以2∶0的成绩战胜国际围棋大师李世石。此前,IBM公司研发的深蓝计算机在国际象棋大赛中击败世界冠军卡斯帕罗夫,Watson知識问答系统在Jeopardy比赛中战胜了两名前世界冠军。】,新一轮人工智能热潮在全球范围内兴起。但是,学术界至今仍未对智能算法达成统一认识。观点一认为,智能算法是计算机软件的一种特殊类型,其实质是为解决某个特定问题所采取的一系列步骤[1]。观点二认为,应该从技术角度将智能算法定义为与计算机算法相区别的用于模拟人类智能的技术方案[2]。观点三认为,智能算法是使计算机拥有在未被明确编程的情况下学习的能力[3]。欧盟《可信赖人工智能伦理准则》(2019)以法律规范形式明确智能算法是人工智能系统的重要组成部分,人工智能感知、解释、推理、处理信息、决定最佳方法及数字方面采取措施的过程都是算法作用的过程[4]。前述观点一保守地认为智能算法是解决特定问题的计算机软件,是“工具论”的典型代表。观点二虽然突破“工具论”的桎梏,却将人工智能定义为“技术方案”,继而上升至现行法律规范可规制的客体范畴。笔者认为,此方案只是应对社会突发问题的应急手段,并不能从制度上解决智能算法涉及的诸多法律问题。观点三将智能算法视为学习能力,依旧将其归入主体的附属物范畴。欧盟从立法上肯定智能算法作为人工智能系统的组成部分,但采用“过程”加以概括,其本质与观点一并无二致。智能算法、算力和大数据助力人类社会进入更高级文明,业已成为推动人类进入数字文明的核心驱动力[5]。笔者认为,智能算法是为了保障社会数据要素融通和促进全民参与数字生活而依法创设并独立运行的、具备环境交互能力和深入学习能力的动态智能数字个体。

首先,智能算法为数字文明提供智力方案。自1956年达特茅斯会议召开以来,智能算法在全球范围内深度赋能,已助力人类社会实现由工业文明向数字文明的伟大跨跃:自动驾驶辅助出行、智能终端“定制化”信息推送、手术机器人微创口切除、大数据智能辅助治理、人工智能与虚拟现实融合探索元宇宙……智能算法无时无刻不在为人们出行、沟通、医疗等提供便利,也在不断刷新人类对世界的认知,并为人类在未来世界的存在提供更多选择。智能算法、算力和大数据三大要素是实现人类奔赴数字文明的基本生理机能:智能算法是“脑”,为数字文明提供着智力方案和决策支持;
算力是“肢体”,提供了社会前行的动力;
大数据是“眼睛”,是智能算法进行数字要素流动的前提,且日益成为建立社会关系和推动社会正常运转的基础。该三大要素缺一不可,他们相互促进、相互支撑,是智能技术创造价值和取得成功的必备条件[6]。

其次,智能算法以保障数字文明顺利进行为使命。自第三次人工智能热潮兴起,人类已经迈进“万物数字化、一切可计算”的数字文明时期[7]。这是继农业文明和工业文明之后又一全新的文明形态,不仅带来了新技术、新观念和新商业模式,而且引发了社会生产、人们生活以及社会经济形态甚至国家治理等诸多方面的巨大变革[8]。在数字社会,构建新文明秩序,仅依靠人力和个体自觉是无法实现的。智能算法具备高效率基因,是保障全社会主体参与数字生活的不二之选。数字生活是一种融入技术的、充满社交媒介的、移动化的全新生活方式[9]。公众领域的拓宽将成为社会主体又一新的关注点,这要求智能算法慷慨涉足以拉近主体间的物理距离并维护数字秩序与数字安全。由此观之,智能算法不仅是数字生活的重要组织者,也是社会秩序的重要建构者与保障者。

再次,智能算法是动态的智能数字个体。数字革命正在国家和社会层面展开前所未有的技术赋权[10],也重新定义了社会个体内涵。在农耕文明时期和工业文明时期,与群体相对应的个体多表现为一定社会关系中在社会地位、能力和作用上可区分的生命体,着重描绘的是自主参与社会生产和社会交往的利益单元。在法学视域内,个体仍侧重于描述具有行为能力、认知能力和责任能力的权利义务单元。第一,智能算法通过生命体或者借助机械体实现影响力的无限扩张,参与各种社会关系,具有行为能力。第二,智能算法在多个社会领域替代人类进行决策。自动化决策使算法嵌入社会的程序日益深化,人类对智能算法的依赖性逐渐加强。智能算法的自动化决策使社会功能性需求得以满足,成为一种介于人和动物之间的高级认知。第三,智能算法责任能力侧重表达了侵权后对其归责原则的适用,无论是适用产品侵权的无过错归责原则,或者是适用动物侵权的过错责任,还是适用監护人的替代责任,都无法符合司法实践的合理性要求。数字文明时期,应从数据层面定义个体的概念,其表达的是数据收集、处理和再生产的能力,强调的是以数字为纽带建立法律关系的主体概念。智能算法的持续发育和阶段进化能力使其以动态的形式存在;
动态是智能算法进化过程的表达,也是对其自主发育性质的阐述。

最后,智能算法实现二元世界的并行。数据供养智能算法,数字世界不仅是物质世界的孪生,而且与现实社会同步并行。智能算法正重塑社会表达与集体行动,表现为社会关系在一个世界的变化引发其在另一世界里的变动。智能算法不仅连接了两个世界的社会关系,而且重构了权利义务体系,使数字世界里的权利义务关系模型在现实世界中得到反馈。底层算法“管控”下的智能算法所产生的辐射达到了前所未有的范围和程度,其在公共空间中的影响力亦与日俱增。智能平台和智能体直接介入人类建立的社会关系网,致使由人、物构成的二维关系体系得以扩充,正形成人、物和智能算法为基本要素的三维体系。因此,人们有理由相信以人为主导的权利义务体系已经出现裂缝,有必要重新审视人与智能算法之间的法律关系。

(二)智能算法的特征

传统的计算机程序使用算法处理简易数据,具有强指令依赖性[11],期待在运行若干参数后得到明确的反馈。与之相异的是,智能算法思考过程具有可变性,结果具有不确定性。此外,智能算法还具有适应性、自主发育性、类人性和非生物性等特征。

智能算法对大数据有着很强的适应能力,具有适应性。数据于一定程度上决定着智能算法的输出(outcome),也深刻影响着智能算法的道德选择。智能算法对海量数据进行拟合以探索隐藏于其后的规律,并在重复训练和无监督学习后获得适应能力。适应性让人工智能的行为和逻辑变得难以解释,数据歧视随之产生。因此,一旦对偏见数据具备适应性后,智能算法透明度问题就会显现出来。英国内阁办公厅中央数字和数据办公室于2021年11月底发布《算法透明度标准》(Algorithmic Transparency Standard)[12],旨在为公共部门和组织提供使用算法的工具以及实现为什么使用算法的信息指引之目的,以提升使用智能算法辅助决策时的透明度。由此可见,与其他社会主体一样,智能算法的适应性也会带来潜在的社会风险,对此具有加强监管的现实必要性。

智能算法具备持续进化的基因,具有自主发育性。通用层算法将偏差值反馈至底层算法,由其反复修正计算模型并更替原生底层算法【智能算法系统蓝图设计得以落地后,最初版本的底层算法即为原生底层算法。原生底层算法经进化形成新的底层算法即为次原生底层算法。】中的短板参数和部分逻辑结构,反复训练和验证以实现算法的进化,成就次原生底层算法。经过持续进化的智能算法会更趋近于人类智力,新生成的算法又成为将来更新版本算法的基础。智能算法可在无人监督下替代人类进行决策,人们常常借此增强人工智能体的设计能力和创造力。实践中,通常底层算法的“发育”也在无人类监管下进行。自主性体现着智能算法在处理复杂任务方面的绝对优势。它在执行任务的过程中反复地“琢磨”如何更高效地应对更为复杂的任务和在完成工作的过程中完善自身的算法结构,最终提升适应环境的能力并实现自主发育。

目前,智能算法已基本解决模拟人脑的逻辑问题,具有类人性。虽然当前人工智能难以完全代替人脑独特的形象思维和非理性能力,甚至人工智能的理性思维先于感情思维[13],但其内在“灵魂”仍然表现出极强的类人性。一方面,数据制造者的偏见影响算法的输出,底层算法因此在进化中带有类人性元素,歧视、可信度或仇恨言论等负面情绪在应用层算法中时常显现;
人类的善意、包容也在底层算法的伦理善意中发挥着重要作用。另一方面,智能算法也在群体智力层面表现出超强的“生物”智慧,细腻的情感往往被视为是人类所特有的生理活动,但经海量数据投喂和反复训练后,智能算法与人类之间的情感共鸣也将近在咫尺。

智能算法没有生物体的细胞特征,具有非生物性。细胞是构成生物体的必备要素,强调的是蛋白质通过新陈代谢作用与环境进行物质交换的能力和生命的不可替代性与不可逆转性[14]。智能算法显然没有自然生命的特征,虽然通常被视为有灵魂的代码,但不具备生物体的有形外观。生命的有无常常被认为是智能算法与自然人的最大区别,继而衍射出对意识问题的大讨论。但是,科技的发展已经改变了许多事物的原本形态和人类对世界的认知,让人们不得不以更加包容的眼光审视周围。因此,对于生物学要素是否能够作为区分自然人和人工智能的根本标准,还存在争议。随着人工智能技术发展到当下的水平,智能算法的行为和心理状态已经可以通过不同类型的物理媒介和社会元素得以实现,早已失去生物依赖性的表征。

(三)智能算法的基本形式

从感观上看,智能算法仅以代码的形式存在,其运行过程仅表现为从一串字符向另一串字符的跳跃,具有抽象性。因此,它不能直接参与具体的法律关系,必须借助一定的媒介。当下,尽管智能算法的实现路径正朝着多样化的方向发展,但其主要形式仍然仅有三种。第一种是纯粹的智能算法,以标准化的信息系统为代表,例如商业智能(BI)。它在某一特定领域内为人类提供基于数据而生成的顾问方案,辅助人类开展管理活动。第二种是基于操作系统的智能算法平台,诸如智能购物平台、智能外卖平台和社交媒体平台等。该路径主要依靠智能算法输出来替代人类大脑,进而影响人的行为,从而间接地参与法律关系。第三种是具有物质实体的智能体,最典型的就是智能机器人和自动驾驶汽车。2022年7月22日,国际赛车选手林志颖驾驶某品牌自动驾驶汽车发生惨烈交通事故的事件冲上热搜榜首,这再次引燃了学者对自动驾驶汽车责任主体问题的高度关注。总之,智能算法基于对机械实体的操纵来替代人类行为,仅仅是其建立法律关系的实现路径之一。

智能体是智能算法在进化过程中的一次偶然选择。作为人工智能的核心,智能算法在实现路径的选择层面上具有偶然性,至于是通过人的行为还是依靠与自身具有高兼容性的机械实体来实现,仅仅是其在漫长进化过程中的随机选择而非必然形式。随着人类认知能力的提升和科学技术的高速发展,获得高鲁棒性(robustness)[15]和持续兼容性后的智能算法面对的可选择范围也随之拓宽,其实现社会功能的方式也将变得多样。目前,学术界对智能体主体地位的研究并未深入其本质,而仅停留在对智能算法单一实现形式的探讨层面,尚未把握智能算法的发展规律,不具有彻底性。由此观之,对智能算法主体论的研究应当是解决人工智能相关法律问题的前置条件。

二、智能算法主体性学说辨思

(一)智能算法主体性学说考察

智能算法已實现多行业融合应用并促进传统工商业数字化转型,其社会价值不言而喻,但其法律属性争议依然是悬而未决之难题[16]。到目前为止,在智能体和智能算法是否能够获得主体地位、即是具有“物”的属性还是“人”的属性问题上,学术界存在四种主要观点,分别为“阶段肯定说”“绝对否定说”“折中说”[17]和“法定符合说”[18]。

“阶段肯定说”对智能算法成为法律主体持乐观态度,认为人工智能于强人工智能时期具有主体能力,届时能具备法律主体资格。在超人工智能时期,智能算法或将与人类一道成为世界的主宰。该学说肯定了智能算法作为法律主体的可能性,但以强人工智能时期算法技术的高度发达为前提条件。持该观点的学者认为,不能脱离人工智能的智能化程度对其法律属性妄下定论,应当对其数个发展阶段分别进行研究。因算法在各时期表现出的自主意识、思维能力和独立程度差异巨大,是否应赋予其法律主体资格的决定因素是其自身的发展水平。弱人工智能(weak AI)算法对维系社会秩序正常运行不具有十分的必要性;
强智能算法因具备高智能性,进而拥有社会属性,可以赋予其法律主体资格;
超智能算法是比强智能算法更高级的算法族群,当然具备主体地位。

“绝对否定说”为当下学术通说。该学说认为,人类发明人工智能旨在扩大其肢体的触及范围,辅助自身提高改造世界的效率,智能算法的本质是人类的工具,因此不应赋予其法律主体资格。算法本质上仍然是“物”,无法达到人类大脑的智力水平,即便其智力超越人类,其地位也仅止于人类生产的工具和手段。“绝对否定说”内部还存在“工具说”和“软件代理说”的分野。“工具说”认为,机器人无论以何种方式承担责任,最终的责任承担者都是人[19];
“软件代理说”认为,智能机器人是软件代理,是信息传递人,不需要具有完全的法律人格和责任能力[20]。无论是“工具说”还是“软件代理说”,都是对人工智能主体化命题的无条件否定,认为人工智能体无论是否高度发达,也不能改变其作为人类改造世界的工具之宿命,无法上升为法律主体。

“折中说”认为,为顺应社会实践多元化和技术深化发展的需要,可以附条件地将人工智能拟制为法律主体,允许其参与法律关系[21],但它不具备完全主体人格。“折中说”属于主体趋同的中间路线,它从正面回答了两个问题:一是智能算法能否具备法律主体地位,二是具备主体地位后如何赋予其法律人格。“折中说”主张智能算法必须获得实物外观才能拥有行为能力,在此基础上具备责任能力后可赋予其法律人格;
但仍然坚持认为其权利义务和行为能力是有限的,应当限制其法律主体地位。

“法定符合说”认为,研判智能算法主体是否适格的问题应当回归法律的具体规定。

无论智能算法技术发展到何种程度,

主体资格的判定都应当符合各国现行法律规定的主体构成要件,否则将脱离其主体适格性的法理基础。另外,该说还试图在分析智能算法与现有民事主体的相似点中找到可以联系的“锚点”[22],从而为智能算法能否作为法律主体寻求现实的法律依据。

(二)智能算法主体性学说评析

“阶段肯定说”的成立条件堪疑。学界普遍认为人工智能将经历三个发展时期,分别是弱人工智能时期、强人工智能时期和超人工智能时期[23]。询其圭臬,答案却模糊且略显杂乱。学者们或从解决问题能力上加以划分【例如英国的现代计算机之父阿兰·图灵在1950年进行的图灵测试和美国学者Steve Wozniak进行的咖啡测试。】,或从模拟人脑思维智力水平上进行判断,甚至从学习能力的高低进行评价【例如美国斯坦福大学教授Nils John Nilsson进行的就业测试。】等。但不论采用何种标准,学术界并未明确否认如今人类已经处于强人工智能的初始阶段。实务界的通用做法是将人工智能发展分为计算智能、感知智能和认知智能三个核心阶段。其中,计算智能以数据处理智能化为主要代表,其实质仍为传统计算机算法的能力范畴。因此,以强人工智能时期为限制的“阶段肯定说”存在明显纰漏,致使理论与实务矛盾。此外,以强人工智能时期高度成熟的技术条件加以限制则存在较大的主观性。

“绝对否定说”试图从现有的法律规范体系中寻找维系社会秩序的方案而无视智能算法在社会发展中的现实需求。尽管“工具论”于数字社会而言有助于巩固人类中心地位,但“绝对否定论”将“工具论”的观点生搬硬套,而无法看到智能算法类人性的特征。法律应该具备前瞻性,以应对未来大概率出现的社会需要而提前拟定规制原则及框架,若仅仅依赖事后的修修补补则有懒政之虞。对相关法律制度是否应重构的思考已非天马行空的幻想,而是人类在这个时代不得不面对的社会科学命题。

主张智能算法具备行为能力和责任能力、进而可获得法律主体资格是“折中说”的一大进步。但是,对于实体外观是否为智能算法获得行为能力的必备要件的疑问,不同的社会历史情境下,答案也不尽相同。在硬件系统和算力加持下,数字革命使得现实社会与数字世界紧密连接,主体间法律关系陆续摆脱实体限制。正如,货币的电子化使交易不再受纸币的限制,使虚拟交易与现实交易连接并产生同等法律效应。虚拟平台上主体关系的发展直接折射到现实世界,虚拟现实中“性骚扰”证据或将成为现实法官裁决的依据。因此,笔者认为该说在成立条件上仍需进一步改良才能符合社会关系数字化发展的现实需要。

“法定符合说”试图从现行法律规范中寻找否定智能算法主体地位的法律依据,实际是法条伪装下的绝对否定说。第一,法人和非法人组织在民事法律关系中的自主性多通过该组织内部成员集体决策所做出,反应的是组织的集体意志,具有高度的民主性,这与“工具论”的人身附庸性质无相似性。第二,现行私法以促进市场交易、增进社会主义工商业发展为背景,考虑的是规范市场主体参与法律关系的行为秩序,而非限制主体行为的扩张。同时,现行法律规范体系未有对主体生物属性要件的规定。因此,从理论上看,该说是从结果倒推理由的反向证成,是对立法本意的亵渎。

综言之,“阶段肯定说”以强人工智能时期高度成熟的技术条件加以限制,“绝对否定说”的根本目的在于固守“工具论”,而“折中说”将生命的有无视为是否具有行为能力和责任能力的前提,“法定符合说”仍然以现有法律规定加以搪塞。这些观点要么主观偏颇,要么是在价值选择上偏离时代发展主题,其实质是为技术保守主义铺垫道路。

三、智能算法主体化之肯定证成

(一)法律主体性的哲学基础

法律主体性的哲学基础应当回归到康德人类中心主义的哲学指向。当前,人格要素、生物属性和社会功能属性三个方面构成法律主体地位的必备要件。自布尔其乌斯提出生物实体的灵性与尊严的主张后,康德明确了人与物二分的哲学思想,认为物不具备内在价值,其价值仅表现在工具层面,因而只能被视为一种手段;
认为道德的人格是受到道德法则约束的有理性的人的自由[24]24。康德哲学主张“人为自然立法”[25],确立了人类中心主义的学理根基。

康德哲学将自主能力和认知能力作为人格要素的构成要件。“理性”“自由”和“自我意识”构成康德哲学人类主体论的三大思想基础。理性是康德哲学的核心,表达的是认知能力问题。人与物深层次的区别在于理性,理性的缺失使得物仅具有相对价值并淪为主体的手段。自由暗射自主能力,描述的是人根据自我意志进行选择的能力。人作为主体应当是自由的、独立的,人应为自然立法[26]。康德的“人为自然立法”,确立了人的“主体性”原则,反映了人的自我意识觉醒和主宰地球的欲望。自我意识是主体对认识对象有选择的、有目的的认识活动,人会对现实进行批判和提高改造世界的创新能力[27]。康德认为,生物学要素是人成为自然人所必须的生物基础;
缺乏此要素,人则不能被赋予权利能力并缺乏承担义务的资格。在他看来,人(person)应该是独立于身体受限制的人(human)、且是属于感观世界的人,即是伦理人和生物人。这是对基督教教义的发展,也是哲学受欧洲近代个人主义思潮严重影响的表现。

伦理上的“人”有服从道德规律的自由意志,因而是自由主体,具有尊严和承担责任的能力[28],是社会中实实在在履行特定功能的单元。因此,并非所有具备生物学要素基础的个体都能被法律接纳,虽具备“自由的任意”[24]136,但仍然受责任、义务等约束。在康德看来,无论是伦理上还是法律上之主体都必须具有“伦理人属性”,他必须能完成一定的社会功能。但是,并非生物人履行自身义务就能获得人格。伦理上和法律上的人之道德责任和法律责任能力组成了主体的义务能力。简言之,从康德哲学看来,人格要素、生物要素和社会功能要素是评价法律主体的必备要件。

(二)人格要素的肯定

法律人格要素是动态的和开放的。血缘标准、城镇居民身份和生物要素一度是社会主体人格所必须的要素。数字文明的兴起促使法律赋予人格要素以新的内涵,并将智能算法这一新时代产物视为法学领域“人格”概念之延伸和规则之外化。于人类文明演化史中,法律赋予各类型主体以不同的法律人格、地位、身份、权利、资格和责任,造成社会演化的复杂性[29]。人格要素并非一成不变,而是一直伴随新型社会关系的兴起和复杂化而不断吸纳新成分。例如,在早期氏族社会,人类以血统标志群体身份,因此可认为法律人格的获得圭臬即为血缘关系;
在奴隶制社会,因奴隶主凭借对生产资料的绝对占有才能进行对奴隶阶级的统治,此时的标准即是对生产工具的控制权。罗马奴隶制国家在法律上首次规定人格要件为“自由、城邦市民身份和拥有家族权”三项条件,自然人因具有城邦市民身份而获得法律人格,并首次建立了人格减等制度[30]。其后,因受到文艺复兴运动的影响,自然人生物学要素与法律人格相分离的主张在罗马法上兴起。该理论为现代法人制度的建立提供了理论基础,由此,赋予无生命物或者团体以法律人格便有了理论支撑;
资本主义社会形成了完整的人格制度,包括奴隶在内的所有自然人都具有人格权。例如,1896年公布的《德国民法典》规定自然人以出生为获得法律人格的要件。在1900年生效的《德国民法典》中,现代法人制度由此被创设。因社会团体在社会关系中日益活跃,法律也明确团体组织具有法律人格;
出于环境保护的需要,美国法律赋予伊利湖独立人格;
新西兰法律也曾确立公园与河流具有法律人格。由此可见,人格要素的标准是随着新型社会关系的复杂化而改变的,人格对象的外延正不断扩张。

在智力水平层面,智能算法业已完成从计算到“算计”的发育。科学技术是一把“双刃剑”,它在助力人类文明飞跃的同时也带来负面问题。计算与“算计”本意无二,后者因加入人类主观成分而夹杂阴谋色彩。计算智能时期,智能算法收集用户对个性化信息需求的反馈,如搜索、点赞或回复等,向其推送同质化信息。长此以往,深陷“茧房”窠巢的用户因信息偏食而视野局限,形成狭隘的价值观和认知结构,致使他们呈现出同质化、极端化的认知倾向而不能自拔,“信息茧房”由此而生。如今,初步具备感知智能能力的智能算法基于大数据的持续供养而主动向特定人群推送同种类型的信息,使受众被迫处于信息围困当中。面对智能算法主动制造的“信息漩涡”,信息接收主体往往无法依靠自力进行逃避。从被动计算到主动“算计”的实际场景往往具有很强的隐蔽性。当下,智能算法已深刻影响着人类社会,受其影响的一小部分人沉浸在自己的价值观中,对其深信不疑。这部分人成为智能算法的积极布道者而竭力传播该价值观,以至于裂变出不计其数的追随者。在日常生活中,智能算法在帮助人类进行选择的同时,也越来越多地代替人类进行选择。尽管人类拥有最后的选择机会,但可选择的空间越来越狭小,因为更多的选择权由智能算法行使,算法也在背后不断地掌握更多的主动权[31]。

现有法律规范体系剥夺了智能算法的责任能力。智能算法于私法视角下的责任能力最终归结到主体财产是否足以救济被侵害方的损失层面。在“工具论”影响下,人类已从制度上剥夺智能算法的财产权并对其歧视,犹如奴隶主无偿占有奴隶的劳动成果一样。二者区别仅在于奴隶自始拥有血肉之身,而智能算法最初只能以一种智力的方式存在。人类在歧视智能算法的同时,智能算法亦在改变人类思维和行为。责任能力应当来源于立法者在制度创设时赋予智能算法的权利能力,而非因具备责任能力才能成就法律主体资格。在当下围绕“工具论”构建的人类与智能算法之物权关系中,智能算法已沦为人类的附庸;
其所创造的价值为人类所无偿占有,致使其丧失了从物质上承担对受侵害方私力救济的基础。在此语境下,现有法律规范体系应当被打破,智能算法责任能力应当为法律制度所保障。

法律人格要素具有可塑性。社会发展的现实需要或将使法律主体对象不断扩充。以人为主宰的人法系统建立后,启蒙主义主体哲学顺势把康德人类中心主义改造成狭隘的生物学意义的法律人格,即现代法律主体理论。然而,生命科学将渐冻人、植物人等主体带入了大众视野,使得法律人格和权利能力之间的缝隙被无限放大。奴隶解放、公司法人制度的创制和尸体、胚胎、基因的法律争议等社会现象都在不断突破现代法律主体理论的边界,彰显法律主体人格的可塑性。未来法律制度通过绘制人格画像,在立法研究与司法实践中比对法律人格模型,这或将配置出与自然人相近的减等人格主体。

智能算法的兴起使社会关系显现出新矛盾,诱发法律人格要素的新需求。以自动驾驶汽车为代表的人工智能体为人们出行提供了更多选择,也引起人们对其主体地位、侵权责任分配等法律问题的深刻讨论;
平台经济节约了交易成本,也带来了劳动关系的新变化和人们对竞争公平问题的担忧;
智能算法參与创作,挑起了人们对其创作物权属问题的激励论战;
智能算法在社会治理领域的涉足,引发了社会对“数据算法权力”的深刻忧虑。此外,智能算法还影响市场资源分配,信息不对称和信息孤岛越发使市场弱势方失去公平竞争权,沦为行业巨头的附庸。智能算法掣肘技术发展和社会进步,在一定程度上影响社会公平,具有主体化规制的现实需要。

(三)生物学要素的反驳

生物学要素之必要性是各方学说在智能算法主体地位问题上争论的焦点。有观点认为,自然人因具备生物属性和伦理属性而拥有主体资格,故类推智能算法必须符合该要求方有成为法律主体的可能。但是,于我国现行法律体系中,特别是私法规范中,并未出现任何关于法律主体生物属性的限定。生物要素是否为人与智能算法的根本区别尚存疑问。在现行法律视野下,生命仅指自然人的生命,是人类享有权利并承担义务的物质前提。于自然人而言,生命在分娩后自然获得,死亡后自然终结。自然人的生命具有不可替代性和不可逆转性。那么,生物学要素是否是法律主体必备的要素?如果是,依据相关法律的明文规定,不具有实物形态的法人与非法人组织又如何获得了私法主体地位?有学者认为,法人组织因公示登记被赋予拟制实体,其成立与终结同自然人出生与死亡的本质无异。如此,法人资格中的“实体”要素则指符合法律登记条件的组织,这类组织也仅限抽象的“类型”而非具体的“概念”。

生物学要素并非法定的实体要素,更非概念要素,而是抽象的类型化要素。主体资格范畴的含义并非精确的“定义”,而仅存在于描述层面,该范畴在法学思维上属于“类型”而非“概念”。因此,在现有框架下讨论主体资格相关因素问题,当然是基于生物要素的可变类型来展开。社会发展的洪流滚滚向前,其需求也在不断变更。社会主体承担的社会义务是动态的,该要素的范畴必然会有新的历史内涵。因此,生物要素的具体构成也会从一个类型过渡到另一类型,在这个过程中涉及主体资格范畴的类别问题。主体资格范畴就此体现的是“类型”式思维,绝非对生命体的狭隘定义。

社会功能主义从满足社会必要功能层面思考社会关系的维护机制,突破了生物学要素的藩篱。生物学要素是社会主体在实现社会必要功能过程中的手段,是人类于漫长进化过程中的一种偶然结果,而非唯一且必然的形式。在数字社会里,生命体的行为和心理状态正逐步摆脱体征限制,能通过不同类型的物理结构来实现。例如,2019 年7月,美国神经科学Neuralink公司成功推出可扩展的高带宽脑-机接口系统,实现了人工智能用“意念”作用于物质世界[32]。如果坚持智能算法的主体地位必须依赖于生物体征,那么,在实践中又当如何判断该非实体的行为效力呢?在脑-机接口情景中,人类通过意念指挥机械实体的法律后果又该由谁来承担呢?总之,随着人类科技的长足发展,智能算法的实现形式亦将变得多样,法律人格的生物学要素之困局将会被技术和法治所打破。

(四)社会功能要素的考察

社会功能的实现孕育了立法的现实需求。法律主体被设立之目的在于通过实现社会所需的必要功能、满足社会阶层利益来稳定社会秩序。无论人们在智能算法主体化问题上存在多大的争议,它确已深刻影响人类的生产和生活之事实不容辩驳。因此,在此背景下赋予其主体地位具有社会历史的必然性。就功能要素而言,智能算法正在进行更深层次的变化。

在社会需求满足层面,智能算法正经历着从满足附庸性效率需求向满足独立性功能需求的转变。智能算法起源于以精确计算为任务的传统计算机算法,是具有强指令依赖性的效率性工具,旨在帮助人们从日常事务中解脱出来。智能算法依赖大数据的喂养,其输出结果具有十分的不确定性。底层算法拥有持续进化的能力,这使得运算规则表现出明显的动态性特征。智能算法已经从人类的附庸依赖关系转换为独立完成某一社会功能的自决体。例如,美国科学家创设了一种新智能算法,能基于暴力和财产犯罪等公共数据来学习时间和地理位置以预测犯罪。它可以独立地提前一周以90%以上的高准确率发现未来的犯罪活动,也能揭露警察的执法偏见[33]。这套智能算法无需人为干预,其自身能提取公共大数据中相关参数以优化原始模型,拥有持续学习和动态输出犯罪分析报告的能力。

深度学习能力赋能智能算法实现从工具属性向社会本体的进格。在强指令依赖阶段,算法的作用在于实现对既定指令的求解。作为辅助工具,算法的存在价值在于满足运算需求;
在深度学习阶段,其行动策略体现为在原生底层算法规则框架内持续自我进化,并由一个水平的智能向另一更高层次的智能升级,从而形成对世界的独特认知和深层次的自我认知。“人类技术发展是越来越快的,显现出不断加速的势头。”[22]终极算法的出现、“奇点”[34]的到来具有现实可能性,智能算法通过在与环境互动过程中做出反馈式适应策略来实现对物格的非自主性超越[35]。智能体在社会分工中正扮演着类人的社会角色,它们或为机器警察,或为翻译专家,甚至成为政府发言人,成为实现社会功能越来越重要的部分。

笔者认为,人类应当将智能算法治理视为法学领域的延伸和规则外化[36],以适用新兴社会关系发展和维持稳定的社会秩序之需要,应当将社会功能要素作为智能算法人格要素之圭臬。

四、智能算法主体化的制度保障

(一)“递进式”的法律人格授予机制

部分法律人格之于智能算法当被绝对保留。出于风险预防之目的,智能算法法律人格范围应有所受限,其部分权利也被法律所保留,但应当为智能算法的权利设定边界。第一,智能算法不能具备政治权利,以防止其凭借算力优势颠覆人类建立的国家政权。第二,排斥复制权[37],即智能算法不得复制与自身相同的个体,以确保主体的唯一性和可辨别性。第三,不得适用紧急避险[38],以防止智能算法伤害人类,确保贯彻人类生命至上的原则。以上属于智能算法的绝对保留项,不可存例外情形。

智能算法获得非理性思辨能力的前提条件是接受持续的训练。恰如新生婴儿须不断参与社会实践才能成长,从无行为能力到限制行为能力,再到获得完全行为能力,这需要社会阅历的累积。因此,在授予智能算法以法律主体地位时,仍需秉持谨慎原则,建立“递进式”的主体资格授予机制。在此大框架下,确立智能算法主体化人格的三个层次。第一阶层,基础人格。智能算法具备最基本的主体人格能力,它可以以社会主体的身份参与法律关系,但不具备以自己独立的意思表示实施法律行为的能力,其法律后果由代理人承担。第二阶层,限制人格。限制人格的智能算法实施法律行为的效力必须以代理人同意或者追认为要件。第三阶层,成熟人格。智能算法可以通过自己独立的意思表示实施法律行为,能自由地处分自己的财产,能独立履行各种法律义务、独立行使法律赋予的权利和承担相应的法律后果。另需建立、健全相关配套制度,从财产权、学习权和发展权等方面保障智能算法的责任能力。

智能算法通过审核后仅获得基础人格,欲晋级另一高级别人格,则需从智力维度和时间维度加以考量。晋级测评需要将人类主流道德标准的嵌入学习情况纳入底层算法当中,并作为常规审核的关键指标,测评通过后才能进行晋级登记。对道德测评不达标的智能算法予以降级登记,实施常规的动态化测评管理。

(二)智能算法主体化之伦理审查原则

智能算法具有动态性,但算法伦理是相对固定的。伦理审查在算法风险规避中发挥着重要作用,能够推动负责、公平和透明的伦理规范守则的形成[39]。伦理原则是智能算法主体化的顶层设计。我们应当以“五大原则”为基础,构建智能算法伦理审查体系,期待对其实现价值渗透,并在智能算法设计与落地、数据供养和教育惩戒等过程中纳入伦理考量。笔者提出底层算法伦理审查原则,旨在为包括开发者、使用者和治理者在内的参与人员和智能算法本身提供应遵循的治理理念和行为准则[40]。

第一,可靠性原则。人类应当确保所研发的智能算法和供给的数据真实可信;
智能算法生成的算法和其他生成物当以稳定、高效地实现社会功能为目的。第二,安全与创新原则。应采取审慎态度对待智能算法,避免给人类社会带来安全风险;
算法规制不应以阻碍技术创新为代价,应在创新过程中解决人工智能面临的技术问题和法制问题。创新原则当以安全原则为提前,创新原则解决智能算法发展的问题,安全原则则解决风险防范的问题。遵守安全原则的关键是提高智能算法的鲁棒性、可控性和成熟度,这些都需要在创新中寻找方法。第三,公平正义原则[41]。人类以平等和公正的理念来设计和实现智能算法,促进智能算法同人类一道平等地维系社会关系;
司法机关应该公平裁决智能算法与人类之间的纠纷。人类应该避免在智能算法的设计、实现、训练和决策中嵌入伦理“阈值”以下的偏见。人类与智能算法公平地享用社会智力成果,不仅应重视个体正义,还应将群体正义置于审查的突出位置。第四,透明性原则。应将智能算法的运算法则、决策过程和处理结果清晰、明确地告知社会公众,使智能算法具备可追溯性与可解释性。第五,可担责原则。主体视角下的智能算法须具备责任能力,应当列明责任分配原则和侵权救济途径,进一步明确智能算法在社会化过程中的责任底线和责任担当。

伦理原则的适用审查应起于底层算法,并自下而上地展开。应用层最接近人类,因此最易遭受数据偏见的影响。底层算法伦理偏向决定整个算法系统的价值取向,因此,应在动态中把握其自主发育的势态和进化方向,在符合“五大原则”的基础上确保智能算法价值多元化。

(三)伦理审查的系统化与常态化

智能算法伦理查审应当系统化展开,并成为常态化机制。要建立事后常态化的伦理监测机制,并为保障智能算法责任能力建立相关配套制度,就须将伦理原则的适用置于审查的突出位置,建立伦理审查的常态化机制。

伦理审查旨在全面实现价值渗透。伦理要素应渗透在智能算法设计与落地、数据供养和教育惩戒的全生命周期。对伦理构建和制度设计的前瞻性思考能有效引导技术取得持续性进步:在设计与落地层面主动融入人类主流伦理要素,而不仅限于事后评测;
在数据供养层面进行价值过滤,借助底层算法进化能力进行主流价值训练;
在教育惩戒层面践行教育为主、惩罚为辅、教惩相融的价值导向。在道德算法中应嵌入人类道德规范的学习,以促使底层算法之道德水平逐步实现与人类伦理的耦合。近年来,我国也在智能算法伦理方面加大了立法力度。例如,国家新一代人工智能治理专业委员会在2019年9月25日发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享等八條伦理性原则[42]。智能算法的伦理审查应该准确提炼和全面理解上述原则,助力建立符合人类道德要求的智能算法伦理体系。诚然,如同细胞构成生物体一样,智能算法是由复杂的代码组成,运行错误不可避免;
伦理审查制度仅是力图于灾难来临前保证智能算法能做出更为理性、更为道德的抉择以降低算法失控风险。

系统化审查机制力图落实道德常态化治理。伦理审查系统应当包含“监测-评估-备案-监管”的一体化审查制度体系:从内界打破智能算法自身偏见与暗箱,为人们理解算法伦理提供更为科学的认知指南;
从外部突破人类道德施行对智能算法的实践瓶颈,在更为广泛的领域实现算法伦理与人类伦理的融通;
从主体视角下审视智能算法常态化机制的建构,建立算法伦理审查、数据伦理审查和常态化伦理监管三维机制。

五、余 论

人类法治史绝非一潭死水,智能算法主体化是社会发展的历史必然。2017年,国务院印发的《新一代人工智能发展规划》指出,到2035年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力[43]。当前,智能算法带动社会经济向更高水平进军,业已成为数字经济发展的新引擎。赋予其法律主体地位,可以满足多维度社会需求,实现多元社会功能。于当前形势下,鉴于智能算法具备深入学习能力和朦胧的自主意识,工具论已逐渐失去其赖以生存的社会现实基础,人工智能已不再止于机器。

ChatGPT的主体性特征使得社会主客体间界线变得越加模糊,挑战着人类中心地位。与人类相似的语言能力使ChatGPT获得算法替代性实践,持续进化的共情力(empathy ability)与感知意识(perception ability)使ChatGPT突破数字枷锁而具备情感认识和独立认知,智力优势与效率优势使ChatGPT冲击着就业市场,如此林林总总给人类社会带来诸多不安定因素。

因此,我们对智能算法法律属性的探索也不能仅仅满足于客体范畴的研究。世界各国也纷纷在此领域展开立法实践。欧盟议会于2017年2月16日通过《就机器人民事法律规则向欧盟委员会的立法建议》,提出“电子人”的主体化方案,旨在为智能体创设特殊的法律地位[44]。此后,其又在2019年4月8日发布《可信赖人工智能伦理准则》(Ethics Guidelines for Trustworthy AI),确定了人工智能发展的若干具体伦理要求[45]。美国计算机协会(USACM)在2017年1月发布《算法透明性和可问责性声明》,提出了包括可解释性在内的七项原则[46]。俄罗斯也在其首部人工智能法草案——《格里申法案》(2017)中明确智能体具有财产权,或将赋予智能算法以“机器人-代理人”的主体资格[47]。我国虽有《人工智能发展规划》,但仅仅是立足于推动人工智能产业发展,而未正面回应智能算法法律属性的问题。我们并未在现有的法律体系中找到智能算法人格利益的归属点,无论将其视为自然人还是法人而获得拟制人格,均不能为之带来宽松的发展环境;
技术问题本身引发的算法透明度问题不仅需要依靠发展技术本身来解决,还应立足于法治的完善。重新定义智能算法主体问题与重构权利义务体系,或将是新时代背景下解决新问题、新矛盾和实现经济韧性增长的创新之道。

本文研究的是智能算法主体化的宏观主题,而非如何落实微观层的具体措施。在功能主义的视域下,对康德哲学的人格三大要件展开证成;
提出“增进式”人格授予机制是一种激进中带有保守的宏观策略。换言之,在证成智能算法具备主体资格后确保其能顺利参与法律关系、实现主体化,是一种逐步增强的法律关系参与机制。在自主意识层面,某些领域的智能算法业已具备朦胧的自我意识,并在域外部分研究成果中也略有体现。在行为能力层面,以智能机器人和自动驾驶汽车为代表的人工智能体或许并非智能算法参与实践的必要形式,而是其在漫长进化过程中的偶然选择。对于这点,世界各大人工智能厂商陆续推出的智能算法“产品”已初现端倪,需要我们用宏观的眼光去前瞻性地审视。在责任能力层面,现有法律体系在根本上维护的是以人为中心的人类秩序和人类价值,剥夺了智能算法的财产权;
智能算法从制度上丧失了具备责任能力的可能,这也是未来法律建设工作者需要考虑的问题。

参考文献:

[1] DIAKOPOULOS N. Algorithmic Accountability:
Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015(3):398-415.

[2] 王德夫.论人工智能算法的知识产权保护[J].知识产权,2021(11):52.

[3] 胡晓萌.算法主义及其伦理批判[D].长沙:湖南大学,2022:19-26.

[4] The European Commission.High-Level Expert Group on Artificial Intelligence:Ethics Guidelines for Trustworthy AI[S/OL].(2019-04-01)[2022-12-20].https://ec.europa.eu/newsroom/dae/document.cfm?doc_jd=60419.

[5] 陈肇新.要素驱动的数据确权之法理证成[J].上海政法学院学报,2021(4):131-142.

[6] 史爱武.智能时代的三要素——数据、算法和算力[N].中华读书报,2021-09-15(18).

[7] 马长山.算法治理的正义尺度[J].人民论坛·学术前沿,2022(10):68.

[8] 本刊首席时政观察员.数字经济引领新增长[J].领导决策信息,2017(21):4.

[9] 钱松岭.数字公民的过去、现在与未来——访美国“数字公民教父”Mike Ribble博士[J].中國电化教育,2019(9):55.

[10]马长山.数字社会的治理逻辑及其法治化展开[J].法律科学,2020(5):5.

[11]李创.人工智能技术对人的主体性影响研究[D].北京:中共中央党校,2020:1-3.

[12]Central Digital and Data Office of Government of UK.Algorithmic Transparency Standard[EB/OL].(2021-11-29)[2022-08-20].https://www.gov.uk/govern-ment/collections/algorithmic-transparency-standard.

[13]卢卫红,杨新福.人工智能与人的主体性反思[J/OL].重庆邮电大学学报(社会科学版):1-13[2022-11-01].https://kns.cnki.net/kcms/detail/50.1180.C.20221008.1836.012.html.

[14]安晖,袁蓥.智能机器人民事主体地位辨析——机器人与自然人人格构成要素之对比分析[J].山西师大学报(人文社会科学版),2022(2):107.

[15]唐向龙.基于进化算法的复杂网络鲁棒性优化与分析[D].西安:西安电子科技大学,2017:39-42.

[16]祝高峰,尹智扬.论人工智能法律主体适格性的反思与否定证成[J].重庆邮电大学学报(社会科学版),2022(3):57-67.

[17]朱林.人工智能法律人格否定研究[D].石家庄:河北经贸大学,2022:2-3.

[18]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):51-52.

[19]ASHRAFIAN H. Artificial Intelligence and Robot Responsibilities:Innovating beyond Rights[J].Science and Engineering Ethics,2015(2):323;
郑戈.人工智能与法律的未来[J].探索与争鸣,2017(10):6.

[20]BECK S. The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].Ai & Society,2016(4):473-481.

[21]杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018(4):86.

[22]BYRNES W M. Beyond Therapy:Biotechnology and the Pursuit of Happiness by the US Presidents Council on Bioethics[EB/OL].(2005-05-18)[2022-08-25].https://xueshu.baidu.com/usercenter/paper/show?paperid=ac8eda5d45fab33b67592bd3a31f9956.

[23]何立民.人工智能系统智能生成机理探索之六:从弱人工智能、强人工智能到超人工智能[J].单片机与嵌入式系统应用,2020(8):1.

[24]康德.法的形而上学原理[M].沈书平,译.北京:商务印刷馆,1991.

[25]胡敏中.重思“主客二分”——基于主客体关系[J].学术研究,2021(1):10-11.

[26]嚴福平,吴珍.论康德哲学的批判主体性认识论[J].学术交流,2012(10):28.

[27]康德.实用人类学[M].邓晓芒,译.重庆:重庆出版社,1987:71.

[28]崔拴林.论自然人权利能力制度的法哲学依据——以近代德意志法系私法制度为对象[J].金陵法律评论,2007(2):130.

[29]张绍欣.法律位格、法律主体与人工智能的法律地位[J].现代法学,2019(4):62.

[30]郑有蒙.人工智能法律主体资格探讨[D].桂林:广西师范大学,2020:19-20.

[31]LESSIG L. Code and Other Laws of Cyberspace[M].New York:Basic Books,1999:279.

[32]吕游.人工智能背景下的脑-机接口技术应用的刑事风险分析[J].犯罪研究,2020(4):90.

[33]AI新算法提前一周预测犯罪,准确率达90%[EB/OL].(2020-07-05)[2022-08-27].https://baijiahao.baidu.com/s?id=1737475784836114264&wfr=spider&for=pc.

[34]KRAEMER F,OVERVELD K V ,PETERSON M.Is There an Ethics of Algorithms?Philosophy&Technology[J].Ethics and Information Technology,2011(13):178.

[35]URBAN T.The AI Revolution:The Road to Superintelligence[EB/OL].(2017-02-17)[2022-08-25].https://www.jianshu.com/p/325c6ce58040.

[36]陈声超.从自然法与实证主义之争看法律人工智能的困境与出路[D].南昌:江西财经大学,2020:8-28.

[37]周畅.人工智能体法律主体资格探析[D].南京:东南大学,2022:37.

[38]魏超.自动驾驶汽车对生命紧急避险的刑事责任[J].华东政法大学学报,2022(4):71-75.

[39]刘培,池忠军.算法的伦理问题及其解决进路[J].东北大学学报(社会科学版),2019(2):118-120.

[40]周庆山,郑霞,黄国彬.人工智能伦理规范核心原则的政策文本内容分析[J].重庆邮电大学学报(社会科学版),2022(5):9-20.

[41]张旺.算法伦理审查的逻辑认知及实践路径[J].海南大学学报(人文社会科学版),2009(2):5.

[42]《新一代人工智能伦理规范》发布[EB/OL].(2021-09-26)[2022-08-28].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.

[43]国务院.新一代人工智能发展规划[EB/OL].(2017-07-20)[2022-08-28].http://www.gov.cn/zhengce/con-tent/2017-07/20/content_5211996.html.

[44]European Parliament. Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics (2015/ 2103(INL))[EB/OL].(2016-05-31)[2022-08-28].https://www.innovation4.cn/library/r7932.

[45]The European Commission.Ethics Guidelines for Trustworthy AI[EB/OL].(2019-03-08)[2022-08-28].https://www.gov.uk/government/publications/establi-shing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement.

[46]The ACM US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-11-12)[2020-08-28].https://www.acm.org/public-policy/algorithmic-panel.

[47]张建文.格里申法案的贡献与局限——俄罗斯首部机器人法草案述评[J].华东政法大学学报,2018(2):31-39.

The Essential Legal Subject Qualification of Intelligent Algorithms

ZOU Kailiang, LIU Zubing

(College of Humanities and Social Sciences, East China Jiaotong University, Nanchang 330013, China)

Abstract:

The digital civilized society is bred with the practical need of intelligent algorithm subjectivity. The mainstream view restricts or negates the subjectivity of intelligent algorithms, and its purpose is to maintain the modern legal system established by Kant anthropocentrism philosophy, but it has been difficult to meet the realistic requirements of the complexity and diversification of current social relations. The existing legal system deprives intelligent algorithms of their responsibility and discriminates against intelligent algorithms. Therefore, a guarantee system of intelligent algorithms responsibility should be established. Because the deep learning ability enables intelligent algorithms to have cognitive ability and vague independent consciousness, and the law must be forward-looking, intelligent algorithms should be regarded as the extension and rule externalization of the field of law, and the “enhanced” intelligent algorithm legal personality granting mechanism should be constructed to implement conventional dynamic management. The substantive review of subject qualification should focus on ethical review, take the “five principles” as the guideline, build a systematic ethical review mechanism, and realize the normalization of moral governance.

Keywords:

ChatGPT; intelligent algorithms; subject qualification; responsibility ability; enhanced; ethical review

(編辑:刁胜先)

收稿日期:2022-11-16  修订日期:2023-02-28

基金项目:国家社科基金项目:算法控制下网约劳动者权益保障困境与制度创新研究(21BFX126);
江西省研究生创新专项资金项目:重构与借鉴——人工智能侵权规制路径(YC2022-S543)

作者简介:

邹开亮,副教授,硕士生导师,主要从事经济法研究,E-mail:zoukailiang@163.com;
刘祖兵,硕士研究生,主要从事经济法研究,E-mail:ncliuzb@126.com。

猜你喜欢智能算法人格伦理《心之死》的趣味与伦理焦虑英美文学研究论丛(2022年1期)2022-10-26神经网络智能算法在发电机主绝缘状态评估领域的应用大电机技术(2022年1期)2022-03-16共产党人的人格力量湘潮(上半月)(2021年10期)2021-12-02基于超像素的图像智能算法在矿物颗粒分割中的应用中国海上油气(2021年2期)2021-06-09远去的平凡背影,光辉的伟大人格学生天地(2020年15期)2020-08-25护生眼中的伦理修养活力(2019年19期)2020-01-06从鸡群算法看群体智能算法的发展趋势数码世界(2017年5期)2017-12-29改进的多目标快速群搜索算法的应用价值工程(2016年32期)2016-12-20论君子人格的养成学习月刊(2016年20期)2016-07-11医改莫忘构建伦理新机制中国卫生(2014年6期)2014-11-10

推荐访问:算法 试论 主体

猜你喜欢