查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《法律科学》
人工智能算法中的法律主体性危机
【作者】 陈姿含【作者单位】 北京理工大学
【分类】 人工智能【中文关键词】 人工智能;法律主体;主体性;理性主义
【英文关键词】 Artificial intelligence; legal subject; subjectivity; rationalism
【文章编码】 1674-5205(2019)04-0040-(008)【文献标识码】 A
【期刊年份】 2019年【期号】 4
【页码】 40
【摘要】 人工智能算法的进步带来的治理困境,表面看需要规范制度的健全,更深层的原因是人的主体性危机。人在客观层面的特殊性随着科技的发展逐渐弱化,人工智能技术对人思维的模拟不断迫近,一元论的哲学进路可能会导致法律对人工智能的治理失灵。厘清法律规范中人的主体性的基础是自由意志,沿着以人为目的的目标,重建善的标准,是法律保证人的自主性和进行人工智能治理的基础。
【英文摘要】 The predicament of legal governance with progress in artificial intelligence algorithms, on the surface requires the integrity of the normative system, whose deeper reason is the subjective crisis of human. The particularity of people at the objective level gradually weakens with the development of science and technology. The artificial intelligence technology is constantly approaching the simulation of human thinking. The philosophical approach of Monism leads to failures of the law in the management of artificial intelligence. To clarify that the subjective basis of human beings in legal norms is Free Will, along the human - oriented model, and to rebuild the standard of good, is the basis for safeguarding of law for human autonomy and legal governance of artificial intelligence.
【全文】法宝引证码CLI.A.1264562    
  
  人工智能是研究人类智能行为规律(比如学习、计算、推理、思考、规划等),构造具有一定智慧能力的人工系统。{1}1现阶段,人工智能在专业领域应用成效显著,比如无人驾驶、智能翻译、智能诊疗、智慧判决等。它带来便捷生活方式和多元生活体验的同时,也引发了诸多的问题:人工智能的广泛应用导致人与客观世界的边界逐渐模糊,人工智能的决策可能带来对人类秩序、公平和正义的冲击;人们始终面临着因人工智能而产生的失业风险和战争风险,也面临着“人造产物”的失控和反叛,甚至整个人类文明的消解。法学领域就此问题的探讨,目前主要有两种路径,一是解决与人工智能相关的具体法益的制度性保障;一是探求人工智能对法律制度整体的冲击与回应。这与法律学者对人工智能所体现出的怀疑、忧虑甚至恐惧的两个根源密切相关:第一,人工智能的安全问题。弱人工智能阶段,人工智能硬件、软件、系统是否能够安全、平稳、有序地参与和开展工作,按照设定程序或者公众期待实现服务。第二,在强人工智能甚至超强人工智能阶段,机器人对人类行善和不伤害,同样是人类在推进人工智能技术时最强烈的诉求。如果第一个层面可以概括为因人工智能的安全问题所产生的关于控制性的疑虑,那么第二方面是深入人类社会制度层面的根源,人的主体性危机。人工智能技术的开展可能从根本上动摇人在世界中的主体地位。这一主体地位不仅关乎于人生活的安全,也是人类文明开展的根基,其主体地位一旦动摇,政治、经济、文化、社会制度随即分崩离析。既有的研究,或者热衷于回答是什么,但忽略为什么既有的规范对人工智能会存在治理的困境乃至失灵,或者虽然触及人的主体性问题却割裂人与自然的区别与联系,陷入盲目的构建。本文从现象到本质探寻,沿着事实、技术到逻辑、制度的路径,试图发掘并重塑人的主体性背后的根源。
  一、人工智能算法引发的法律治理困境
  美国科技公司LawGeex所研制的人工智能产品,在2018年4月同{20}名资深法律人审阅法律文书的比赛中以耗时21秒、准确率94%的成绩轻松取胜。{2}这种司法服务中人工智能的应用具有毋庸置疑的优势,比如解决因为传统司法主体主观因素造成的语言模糊和缺乏统一性的问题,双方当事人因为共同使用人工智能服务系统而更客观的看清自身的利弊得失,进而选择司法调解,促进纠纷的解决。从律师助理到出庭律师和法官,都可能引进人工智能系统协助开展工作。脑力劳动密集型的职业,比如财务经理、法律咨询服务、医疗服务等都有可能被人工智能取代。在促进劳动力解放、效率提高、服务专业与便捷的同时,数据算法可能引发三个层次的问题:
  第一,依靠人工智能进行信息处理,将引入、扩大设计者的偏见并延续信息收集的偏差,有可能导致决策不公。较之于法律决策者,设计者的责任更具有隐蔽性。信息爆炸使得人们必须依靠人工智能进行信息筛选和信息评估,人工智能进行所有抉择性问题的基础是搜索和评估,决策的优劣与使用的数据密切相关。在目前的弱人工智能阶段,必然会有“神人”(程序的设计者或者制造者)的存在,用以设定人工智能的核心算法,即如何收集数据和如何处理数据。在这一过程中人工智能是否继承“神人”的某些偏见或者歧视,并通过高速的处理将其扩大进而损害弱势群体,事关信息使用者决策的公平性,以及信息被使用者是否遭遇歧视。智能算法归根到底是一种数字形式的表达,而数据的收集、处理和表征都有可能被输入设计者或制造者的主观价值判断。同时,人工智能具有的深度学习能力也可能带来使用信息的偏差,即通过数据反馈让这一歧视被放大或进入循环,导致不公。
  第二,由于算法不透明本身导致的侵权问题,可能引发治理主体不明和传统民法规则的失效,即引发“谁是治理主体,谁又能够成为被调整对象”的诘问。由于基础数据和弱人工智能的设定者主观因素的影响而产生的歧视是一种设定层面产生的歧视。除却设定规则的歧视,算法相关的侵权问题还可能存在于数据的处理层面,这与人工智能算法的不透明相关。而人工智能在深度学习中所涉及的不透明性可以概括为:因国家秘密、商业秘密、个人隐私导致的算法不透明;因对象不同、对人工智能技术理解不同而导致的算法不透明;因算法本身的复杂性而导致的不透明。{3}身处“万物皆互联、无处不计算”{4}的时代,人们依靠人工智能认识和决策。在人类既有的认识经验中,事物必须经由复杂的感知,被归纳或者经验性地划入概念的范畴,但当我们相信机器的决策,尤其是在人工智能逐步发展的前提下,我们获得概念则依靠技术的预判,理论的进步依靠技术的进步,认识的深度取决于计算的极限。在大数据时代到来以前,人类是人工智能的创造者,人工智能是辅助者,但是当计算机、互联网和智能终端彻底结合,我们再一次被科技驯化,只有强大的数据收集、处理和决策能够让我们紧随时代的步伐,我们与人工智能开始共生。
  第三,技术深度参与司法,以单纯的人工算法推理代替法律推理可能有违司法公正的制度设计。法律论证的功能在于使人们确信某一法律决定是正确的。{5}在形成使人们确信正当或者正确的法律决定的过程中,论证具有重要的影响,除却严谨的论证逻辑,严格的法律程序,人们确信的另外一个密切因素就是说服,而这并不是一个完全理性的过程。虽然,诸多学者为这一行为的理性做出了努力的论述,但也诚如哈贝马斯,在努力之后依然认识到所有的法庭辩论受到具体的对象、语言、角色、时间和信息的影响{6}273-290。唯一正确的答案并不必然受到当事人和多数人的信服。正如柏林所揭示的那样,寻求千差万别的事物背后的共同基础和最后根基而得出唯一正确的结论,本身就是一种强权即是真理的逻辑。{7}
  直观而言,人工智能算法的进步与应用引发了新的法益纷争,有待法律框架的完善。具体而言,人工智能算法治理的复杂性涉及一种人对自我的重新定位。我们对人工智能所做出的治理和决策应当遵循的法律和伦理框架,与其说是法律对人工智能算法的规制,毋宁说是一个人对自我深度剖析的哲学命题。当人的主体性受到人造技术的冲击,人类世界呼喊进行一次关于人的道德和价值的反思。
  在传统的世界观之中,人对自身的定位被区分为三种模式:第一,宗教模式——把人看作是神造万物的一部分;第二,科学模式——把人看作自然的一部分;第三,人文模式——把人看作唯一的主体,把人的经验与对待自身、自然和社会的关系作为一切问题的出发点。而在人工智能时代,任何单一的模式都无法准确地定义人的自身以及人与人工智能的关系。以血缘和婚姻为纽带的自然人和自然家庭伦理关系受到新技术的突破,以自然人为基础的主体制度面临着扩张到电子人格、人工智能人格的压力。人创造了人工智能,但是就如同上帝将对其最伟大的创造——人类失控一样,人面临自己沦为人工智能世界的客体的窘境,并由此动摇以人为中心建立起的社会制度。
  二、语言与算法的关联模糊了法律主体的客观属性
  (一)算法与语言沟通了人与人工智能的物理世界
  人类成为地球有史以来侵略能力最强的物种——其根本性的动力就是科技创新。这是现代意义上的人类所导致的第一次物种灭绝。{8}43人类发展进程中的另外一个重要的里程碑就是语言。语言具有沟通的优势,这让新的想法可以在群体中得以交流,而不需每个人都产生新的想法。但是这样的优势并非是人类语言的特长,候鸟、蜂群等一切在群体中的动物都会以某种特殊的信号进行交流,只不过人类的语言更准确也更丰富,这为人类整体性的进步节约了大量的时间。人类语言的一个无可替代的优势是自动生成。当人类的大脑结构能够满足语言的需求,人们不止获得了交流的最有利工具,而且生成了驯化自我思维的能力,治理混乱、不稳定和无目的的结果,就是自我意识产生的根源。这也是人从客观世界,从自然中得以被分离的基础。人们的创造力不是一种简单的偶然性和无目的性,拥有了语言的工具和与语言相互联系的思维结构,我们就不仅具有了精神,而且能够获悉自己的精神活动。科技创新和语言思维结合在一起,让这种带有侵略性的扩张获得原始的动力,因为人们的创造活动是一种有意识且可以自我复制的创造。人作为种群走向现代智人的重要节点是语言,这也是以人为中心的制度建立的基础。这堪称人在自然世界最伟大最复杂的发明,也是人在人工智能领域的基础和起点,将语言表达的想法和概念进行高度的抽象,就转变为可以书写可以计算的文化符号,比如各种文明中的文字,再比如计算机语言的二进制数字。这种文化符号的抽象成为自然世界和人工世界彼此沟通的桥梁:庞大的物质信息可以进行高度的抽象和压缩,比如在牛顿那里,所有的物质运动皆可以概括为F=ma; 所有的能量现象也被爱因斯坦表达为E=mc2。当人类的语言可以高度概括为符号,是不是人的思维就可以等同为机器的计算?“想做什么只要问问自己,我觉得好就是好,坏就是坏”{9}的判断,在人工智能时代,配合计算机技术,机器似乎已可以提前告知人大脑如何选择。{10}
  如果以人工智能的发展对照人类物种的起源和文明的进步,人类历史可以被还原成为数据处理的过程{11}342,那么算法无疑正在充当人类新的语言。人工智能与计算机网络的结合,就是语言支配下的科技创新。算法简单来说就是为了解决问题,设计出一连串的数学公式,以达到一个理想的解答。诸多的计算是相当复杂的,所以探讨如何利用有限的资源进行有效的计算就开始进入算法的学问。如果一个问题是可以计算的,就意味着通过一连串机械的运算,能够被计算机所解决。目前的人工智能所要解决的就是如何在增加节点但是不让计算成指数增加进而达到计算极限的问题。但是棋类对弈、文字分析等规则是人类对弈思维中的典型却不是极限,现实中人类的大脑不会因为问题思考的难度或者没有答案而停止运转或者停止给出答案。所以人工智能如果一旦对不可解的算法问题给出答案,人工智能将迈上一个台阶。目前计算机硬件、互联网与类神经网络的深度结合,正在推动人工智能实现自主性。
  (二)算法模拟了人作为法律主体的物理性基础
  人在物理层面的自主性体现为自我修复、自我防御、自我维护、自我改进等方面的自我控制,诸多学者讨论其他生命体,诸如动物的权利也正是建立在其能够实现自主的前提下。人们并没有从科技领域获得更多的关于自主性的系统特征,诸多的科技发明只是具有单一的表征,却无法被发现更深度的自主,比如“无人飞机可以自行操控方向,并且在空中飞行数小时,但无法自我修复;通讯网络有自我修复的能力,但是无法自我复制;计算机病毒能够自我复制,但是无法自我改进。”{8}12人工智能展现了比以往的科技更强大的自我创造系统(self-reinforcing),对于人工智能软件,研究者不需要输入数以万计的指令,而是任由进化系统挑选最好的指令,这些被挑选的指令通过深度的自我学习得以不断改进。如果计算机代码能够在人工智能系统中得以像生命系统中的DNA一样自我复制、自我删除、自我修复,甚至自我突变,这样的进化至少让以人工智能为代表的人造系统,与以基因为代表的天生系统之间的鸿沟得以消除。
  (三)算法复制了法律主体“拟制”的过程
  “成文法制定的重要任务之一,是将现实中的人转化为法律上的人;由此使得生活中现实存在、各具特征的个人,在法律上以统一的标准人、制度人的方式出现。”{12}第一,法律根据自然人的客观情况进行主体分类:法律的人根据自然人的“年龄”标准划分成成年和未成年人,根据“认知能力”划分有无行为能力人,亦根据财产的多寡决定是否拟制为人(比如《唐律疏议》中规定“奴婢同资货,部曲不同资货”)。第二,法律根据自然的人的生活场景不同划分法律主体场景:自然的人完全能够自主的生活情境往往属于私法调整的领域,这一领域法律拟制人性本善,约定为先;自然的人必须依靠权力配合才能够实施行为的生活空间拟制公法和公法人的存在,并以人性恶作为基础,规定“法不授权不可为”的行为规则。第三,法律根据自然的人“相同情况相同对待,不同情况不同对待”的朴素正义观设立行为模式的评价标准。现实生活中的人虽姿态万千,生活感受酸甜辛辣,法律却将个体的差别进行忽略,消除了差异性与不确定性,而建立起统一的行为标准——人主观善恶的差异被代之以行为的善恶作为评判的前提。虽然自然法学派与分析法学派就法律拟制主体的基础存在纷争,前者以人性作为构建的基础而后者以规范作为基础,但毫无疑问它们都实现了人的概念的类型化建构。其本质就是包括人类自身在内的世界存在被测量、记录和分析的可能。量化一切,是数据化为智能科技带来的有力支撑,文字、方位、沟通乃至人的行为都被数据化,{13}72进而也就实现了从外部观察以规范对主体的认定标准。
  在我们生存的星球上有史可考的生命进程中,在能够对其他生命形成霸权地位的生物中,人类是最特殊的,因其“无爪牙之力,无筋骨之强”,其统治的正当性来自于“万物灵长”。当其他的机体具有了同人类一样甚至超过人类的智能,人的优势地位可能会随即消失。因此,人在物理层面所表现出的特殊性,虽是关隘却非阻隔,是人与人工智能之间区别的前提但非鸿沟。机器人是否会出现反叛,进而让人处于被压迫、奴役、杀戮的境地?人能否保有自身的生存和发展空间,维持其自主性?人的主体性是否会受到冲击,人类中心的制度体系是否得以存续?这些问题事关两个层面的问题,一是如何对人工智能算法相关的技术予以规制,二是如何从制度构建的层面捍卫人的主体地位。第一层面的技术问题并非忧虑的真实存在,因科技向来存在风险,而法律对于这一层面的安全问题的解决由来已久。第二层次关于人主体性的回应才是人工智能能否进行法律规制的核心问题,这也引导人们自形而上的层面思考法律主体的本原问题。
  三、人工智能算法在思维层面对法律主体的迫近
  算法的进步让人工智能在客观层面具有了非同以往的自主系统。技术的精进对理论的发展提出更高的要求。一方面人们转向对思维层面的探究,迫于寻求除却客观层面特殊性以外,人得以自主的理论根源,另一方面,为人工智能的技术进步提供哲学的指引。
  (一)从物理搜索到仿生网络,人工智能算法在不断靠近智能发展的“奇点”
  人工智能算法的设置大致经历了两个阶段。第一个阶段,人工智能的思维模式可以抽象为一种物理系统,对关键符号的搜索成为物理系统的关键。这种物理搜索的模式,与人脑思维在解决问题的层面,具有高度的一致性——设立问题,解决问题。经过人工设计的强化,这一系统更加注重有效信息搜索的手段,配合计算机硬件的进步,人工智能发展的确展现出超强的运算能力,且完全超过了人的速度。但是我们依然将其称之为弱人工智能,主要在于该模式下人工智能受制于资源条件的限制且并未考虑人的非理性因素。所以物理搜索的方式难免对人解决问题的能力,或者对人们的思考内容表达的过于简单。第二阶段,物理搜索系统展现出的不足,使得仿生神经网络的发展得到重视。如果说物理搜索是试图追求人脑的形式逻辑的话,那么仿生学则直接发力在研究人的大脑复杂的传输结构——通过输入函数模拟负责信息输入的树突,通过输出函数模拟信息输出的轴突,而人工的神经元则模拟大脑中真实链接和处理信息的神经元结构。所以在仿生神经网络的人工智能系统中,信息的处理更直观的表现为一套学习算法结构。这一算法系统的进步不仅仅在物质结构上更接近于人脑,还具备了基本甚至深度学习的能力,能够进行自身的模式分析,对现象进行描述、抽象、总结、分类、解释等。与物理搜索的方式相比,仿生神经系统可以通过后天的学习而不断提升,这是人工智能不断升级,越来越聪明的重要体现。
  (二)人工智能思维模式的转变,背后是从唯理论走向经验主义哲学基础的指引
  德谟克利特的机械唯物主义和亚里士多德的形式逻辑为人工智能的物理搜索技术提供了哲学基础。人在解决问题的过程中的确也倾向于一种按照规律得出结论的思维方式。而这种规律可以简单概括为:收集所有有效的途径,删除所有无效的途径,然后得出一个结论。我们追寻唯理论的真正始祖时,总是归结于霍布斯那里,因其从自然科学延伸至社会领域,全部归结为一种加减运算,并认为这种万能的推演逻辑能够得出一切问题的答案{14}28。如果说物理搜索是一种唯理论,先设定一个理性的大脑,能够抽象和假设,然后再通过预先输入的通算模式进行求解,那么仿生神经网络背后的哲学基础就是经验主义,通过不断的物理刺激形成感官刺激,进而成为一种感觉认识。算法的设计,主要是通过输入信息比对,形成人们的知识和概念。从物理现象,到感觉刺激,形成感觉观念,随着感觉观念被不断强化,形成习惯,从而指导行为,正是经验的路径,也是人工智能不断学习强化思维的过程。所以仿生系统的

  ······

法宝用户,请登录后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
【参考文献】 {1}〔美〕卢克·多梅尔.人工智能改变世界,重建未来〔M〕.赛迪研究院专家组译.北京:中信出版社,2016.
  {2}果壳网. AI也要抢律师的饭碗了吗?凤凰网〔EB/OL〕〔2018-4-27〕 http://tech.ifeng.com/a/20180403/44928677_0.shtml.
  {3}Cary Coglianese and David Lehr.“Regulating by robot: Administrative decision - making in the machine - learning era” Georgetown Law Journal, March 7,2017.
  {4}杨婕.全球人工智能发展的趋势及挑战〔J〕.世界电信,2017,(2):15-19.
  {5}杨贝.法律论证的能与不能〔J〕.华东政法大学学报,2017,(2):84-94.
  {6}〔德〕哈贝马斯.在事实与规范之间:关于法律和民主法治国的商谈理论〔M〕.童世骏译.上海:生活·读书·新知三联书店,2014.
  {7}甘阳.柏林与“后自由主义”〔J〕.读书,1998,(4):38-45.
  {8}〔美〕凯文·凯利.科技想要什么〔M〕.闫丽娟,译.北京:电子工业出版社,2016.
  {9}Jean - Jacques, mile ou De l'éducation, Paris, 1967:348.
  {10}Chun Siong Soon et al, ” Unconscious Determinants of Free Decisions in the Human Brain”, Nature Neuroscience, 2008, Vol.5.
  {11}〔以色列〕尤瓦尔·赫拉利.未来简史〔M〕.林俊宏译.北京:中信出版社,2017.
  {12}胡玉鸿.法律主体概念及其特征〔J〕.法学研究,2008,(3):3-18.
  {13}〔英〕维克托·迈尔-舍恩伯格,肯尼斯·库克耶.大数据时代〔M〕.盛杨燕,周涛译.杭州:浙江人民出版社,2013.
  {14}〔英〕霍布斯.利维坦〔M〕.黎思复、黎廷弼,译.北京:商务印书馆,1985.
  {15}Michael Gazzaniga, Who’ s in Charge?: Free Will and the Science of the Brain, New York: Ecco, 2011.
  {16}〔法〕笛卡尔著.第一哲学沉思集反驳和答辩〔M〕.庞景仁,译.北京:商务印书馆,1986.
  {17}崔中良,王慧莉.人工智能研究中实现人机交互的哲学基础从梅洛·庞蒂融合社交式的他心直接感知探讨〔J〕.西安交通大学学报(社会科学版),2019,(1):1-11.
  {18}〔英〕玛格丽特·博登.人工智能哲学〔C〕.刘希瑞,王汉琦,译.上海:上海世纪出版集团,2006.
  {19}黄晓伟,张成岗.技术决定论的现代性透视〔J〕.自然辩证法研究,2018,(11):27-32.
  {20}〔法〕笛卡尔.第一哲学沉思集反驳和答辩〔M〕.庞景仁,译.北京:商务印书馆,1986.
  {21}邓晓芒.德国古典哲学讲演录〔M〕.长沙:湖南教育出版社,2010.
  {22}〔德〕康德.实践理性批判〔M〕.邓晓芒,译.北京:人民出版社,2003.
  {23}〔德〕康德.道德的形而上学原理〔M〕.苗力田,译.上海:上海人民出版社,2005.
  {24}〔德〕康德.判断力批判〔M〕.邓晓芒,译.北京:人民出版社,2002.
©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
本篇【法宝引证码CLI.A.1264562      关注法宝动态:  

法宝联想
【相似文献】

热门视频更多