查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《学术交流》
自动驾驶车辆交通肇事的刑法规制
【作者】 程龙【作者单位】 云南大学法学院
【分类】 刑法总则
【中文关键词】 自动驾驶;刑事责任;交通肇事;刑法规制
【文章编码】 1000-8284(2018)04-0081-07【文献标识码】 A
【期刊年份】 2018年【期号】 4
【页码】 81
【摘要】

自动驾驶技术日趋成熟,相应的法律问题也随之显露。自动驾驶车辆肇事案陆续发生,关于如何对自动驾驶车辆交通肇事进行刑法规制的讨论已跃然出现。从人格责任出发,包括自动驾驶车辆在内的人工智能产品具备一定的辨认、控制自身行为的能力,也有局部的自我意识和刑罚感知能力,可以以特殊的形式承担刑事责任。具体到交通肇事的罪责承担上,应以自动驾驶系统与驾驶人对车辆的支配能力为中心,在辅助驾驶模式、共同驾驶模式和自主驾驶模式下分别讨论责任承担问题。同时,注意判断驾驶人的结果回避可能性、自动驾驶系统的意志自由,并且重视制造厂商和个人的监督责任。

【全文】法宝引证码CLI.A.1241571    
  2017年,人工智能成为最受关注的新兴科技领域。尽管断言人工智能将会改变人类社会为时尚早,但毫无疑问,人工智能正在悄悄影响着人类生活。“我们不可能停下研究人工智能的脚步,从人工智能到广义人工智能再到超级人工智能的进程不可避免,也无法‘叫停’。”{1}人工智能的发展需要科技的投入,也同样需要人类适当干预,以避免人工智能反噬其“造物主”。我们应当未雨绸缪,前瞻人工智能的发展,同时因应其发展而对现行法律进行调整或再解释,以满足规制人工智能前进方向的需要。
  自动驾驶是人工智能最早投入应用的领域之一。尽管技术较为成熟,但仍然在其发展过程中暴露出若干值得法律界人士思考的问题。其中,自动驾驶车辆交通肇事后能否为刑法所规制、怎样为刑法所规制,成为本文关注的焦点问题。就在本文写作期间,2018年3月19日,美国亚利桑那州再次发生自动驾驶车辆交通肇事案{2},影响颇大,对自动驾驶车辆进行法律规制的需求与呼声进一步升温。在此背景下,我们更有必要思考如何从刑法规制的层面,一方面尊重科技成果,鼓励自动驾驶技术与系统的研发,另一方面又确保自动驾驶科技发展始终以人为本、依法运行。
  如前所述,本文旨在论析如何从刑法层面对现在正在出现和未来即将出现的自动驾驶车辆交通肇事进行规制。文章将主要讨论自动驾驶车辆自身能否作为责任主体承担刑事责任以及自动驾驶车辆交通肇事后哪些主体可能承担刑事责任的问题。由此立场出发,第一部分将从理论层面论述自动驾驶车辆承担刑事责任的可能与限度,第二部分则基于我国《刑法》第133条交通肇事罪的规定,论析自动驾驶车辆构成交通肇事罪后的责任承担问题。必须说明的是,本文仅探讨自动驾驶车辆的交通肇事过失犯罪,而不讨论自动驾驶车辆产生自我意识后的故意犯罪,也不讨论相关民事责任问题。
  一、自动驾驶车辆承担刑事责任的可能与限度
  (一)自动驾驶车辆的人格责任论
  在讨论自动驾驶车辆应否、能否承担刑事责任之前,必须首先回答何为刑事责任这一理论问题。从理论上看,责任的概念在刑法上有两种不同的含义,一是作为犯罪法律后果的刑事责任,二是作为犯罪成立条件之一的“非难可能性”{3}240。本文主要探讨的是第二种意义上的责任概念,即对不法行为的非难可能性。对刑事责任本质的理解存在不同学说,不同学说直接影响了对责任的理解与应用。
  从历史上看,刑事责任经过了结果责任论、心理责任论和规范责任论的发展脉络。{4}结果责任论、心理责任论由于自身种种问题,已被时代抛弃。规范责任论强调“行为人对于法律规范的错误态度”{5}210。但在人工智能领域中,一方面,实际上不可能寻找作为行为人的人工智能产品的“法态度”;另一方面,法态度的形成需要具有人类的情感与共识,人工智能产品实际上难以建立其稳定的法态度,也难以对此进行准确评价。因此,在一般意义上讨论人工智能是否存在违反法律规范的错误态度,是有疑问的。自动驾驶车辆及其他人工智能产品承担刑事责任,关键是为了保障现有的人类法律规范得到普遍遵守,同时,确保法律规范一旦违反后能够得到救济和回复。也就是说,各方社会主体在面对具有合法性的规范时必须保有足够的对法律的忠诚,此即机能责任论的内涵。{5}210机能责任论能够解释人工智能需要承担刑事责任的原因——即实现一般预防,但仍然无法回答人工智能能否像人一样表明对法律的忠诚与不忠诚,同时也难以说明是否可以实现一般预防的基本效用。况且,机能责任论并未在我国形成通行观点,故本文仍不采机能责任论的观点。
  本文认为,人格责任论是解决自动驾驶车辆及其他人工智能产品刑事责任本质问题的有力解释资源。所谓人格责任就是:“现在的人格是在各种各样的生活决定的积累的基础上而形成。并且,过去的各个决断仍是基于自由意思而作出,作为其集合体可以追究人格形成责任。”{6}人工智能产品是否有人格性,是人格责任论能否解释人工智能产品承担刑事责任的基础。我国目前尚无立法对人工智能的法律人格和权利义务作出规定,但欧盟及日本等国已经开始关注人工智能产品的人格性及其法律规制。{7}从技术层面看,人工智能产品的人格性也能从其机器学习(Machine Learning)中得到印证:人工智能与传统编程产品最大的不同,就在于人工智能是依靠一定算法,基于海量数据进行机器学习,从而掌握相应技能。例如自动驾驶,它并不等同于目前已经广泛应用的自适应巡航系统。自适应巡航是基于车载雷达、自动刹车、定速巡航等已编程技术而对车辆进行控制的技术系统,而自动驾驶是在分析、学习海量人类驾驶技能、经验和习惯后由机器学习进而掌握与真人近似的驾驶技能。从这个角度看,人工智能在特定领域完全满足人格形成的渐进性和后天培养性特点。从哲学视角看,人的意志自由是其承担责任的基础;但从实然角度看,人的意志自由总会受到既往社会、教育、经济、政治、自然条件等诸因素的限制。最终,决定行为人犯罪的是其人格层次,即“从生活中经常发生的临时决定中逐渐形成的性格”{8}。以此观之,人工智能产品的“人格”通过机器学习而逐渐形成,因此,在追究人工智能产品的责任时,以人格责任论为基础较为适宜。当然,人格责任论是在学理层面解释人工智能产品刑事责任承担的一种解释资源,而非对人工智能“人格”的确定。申言之,在目前尚未针对人工智能产品提出专门刑法理论之时,我们必须利用已有的理论工具对此新生问题进行再解释。基于以上优点,人格责任论成为解释人工智能产品刑事责任承担的“最不坏”的理论资源。同时,不可否认,由于机器学习的片面性和专业性,人工智能产品“性格”和“习惯”的形成较有局限性,只能在其用途范围内证成“人格”。若单纯以机器是否能够识别法律、能否忠实于法律来判断人工智能产品是否能够承担刑事责任,则无论如何无法得到确定的答案。但如果从性格形成、人格确立的角度讨论人工智能产品承担刑事责任的可能,则无疑更有说服力。当然,已经有人指出,人工智能产品并非一概拥有人格,只有具备辨认自身行为和控制自身行为之能力的强人工智能才有法律上的人格。{9}138-140笔者赞成这一判断,认为法律上的人格是人工智能产品承担刑事责任的基础,“无人格即无责任”。以此标准可以判断在机器和自动驾驶系统参与下,何时由人承担刑事责任,而何时由自动驾驶车辆承担刑事责任。
  (二)自动驾驶车辆可以承担刑事责任
  具备法律上的人格,只是包括自动驾驶车辆在内的人工智能产品承担刑事责任的基础。要能够承担刑事责任,还必须论证自动驾驶车辆具有刑事责任能力。有研究认为,强、弱人工智能的区分正好对应刑法上有、无刑事责任能力的界定。智能化程度较低者为完全无刑事责任能力或限制刑事责任能力,而智能化程度很高的强人工智能则对应完全有刑事责任能力,如果人工智能系统感染病毒则可对应间歇性精神病人的刑事责任承担。{10}112这样的分类有一定道理,但失之于简单化。本文将从行为主体性和刑罚感知能力两个角度论述自动驾驶车辆具有刑事责任能力。
  1.行为主体性
  无生命体是否能够产生与人一样的有意识行为,是无生命体是否可以承担刑事责任的首要疑问。刑法中的行为主要是指“基于意思的人的身体的动静”{11}66。尽管犯罪概念是围绕自然人而建立的,但我国刑法并不排斥对无生命的单位追究其刑事责任。这为刑事责任承担主体拓展到自然人以外的无生命体提供了基础。学理上认为,虽然单位不可能有完全属于自己的意思表示,但是我们仍然可以把“单位内部成员在相互联系、相互作用、协调一致的条件下形成的意志”视为单位的意志。{3}135日本刑法也认为,法人虽然“不可能与自然人完全一样,具有基于意思的身体动静”,但“仍然可以成为犯罪的主体”。{11}39故行为是否由自然人作出、是否附有独立的意志,并非判断行为主体性的绝对依据。
  人工智能产品不具有生命力,但并非不具有思维能力。其一,人工智能产品具有一定的辨认能力和控制能力。例如在交通运输领域,自动驾驶车辆自然具备对交通环境、驾驶技巧、交通法规等诸多因素的辨认能力。其中,对交通法律法规的记忆以及对自身驾驶行为合法性的辨认应是自动驾驶车辆所必须具备的能力。此外,包括自动驾驶车辆在内的人工智能产品最主要的价值就是扩展了人的能力范围,尤其是在日常应用领域,人工智能产品能够凭借其更好的计算、判断、预测能力而比人类更优秀地控制行为于恰当范围之内。自动驾驶车辆依靠其电子感应设备能够更好地探知距离、位置、动力、刹车分配等复杂的驾驶影响因素,又能通过智能分析系统、动力控制系统等人工智能产品来恰当地控制驾驶,使得自动驾驶安全度大大高于人类驾驶。因此,人工智能产品的辨认能力和控制能力是完全可以确证的。但需要注意,人工智能产品的辨认能力和控制能力尽管在某个领域优于人类,但不可能如人类一样在所有领域都具备辨认能力和控制能力。易言之,人工智能产品只具有有限的辨认能力和控制能力,仅在其对应的用途领域可以证成其思维能力,也只能在其思维能力范围内讨论其可否承担刑事责任。泛泛讨论人工智能产品是否具有刑法意义上的辨认能力和控制能力,是空洞的;必须落实在人工智能产品的用途领域才有意义。如自动驾驶车辆,可以讨论其是否应当承担交通肇事领域的刑事责任,但谁都不会认为它还可以承担强奸罪、逃税罪的刑事责任。其二,人工智能产品具有一定的自主意识。{12}42-43强人工智能的目标就是建造具有与人相同的思维能力的机器产品。尽管目前人工智能的发展尚未迈入强人工智能的大门,但随着越来越多的机器通过“图灵测试”,机器具有一定的思维能力已经成为科技界的共识。科技中的“思维”与法学中的“思维”概念有一定差异。法学中的思维不仅要求有逻辑思考能力、自主意识,还要求有伦理识别能力,即不仅思考以最好的方式行为,还要以最对的方式行为。事实上,机器行为的伦理性一直是业界讨论的热点。机器的行为必须考虑人的首要性,即机器的行为不能侵害人类,不能违背人类生活和生存的伦理。阿西莫夫在20世纪40年代提出的“机器人三原则”是对机器行为伦理性约束的最好例证。目前,人工智能的发展主要依靠在海量数据基础上进行的机器学习。在机器学习过程中,人工智能产品逐渐产生对某个专业领域的思维能力,但必须确保在“黑箱化”的机器学习过程中人工智能产品不会产生危害人类的思维,也就是说人工智能产品的发展与应用必须考虑其行为的伦理性。人工智能产品的行为不能以违反人类道德、伦理和社会基本秩序的方式进行。由此观之,对人工智能产品的行为进行刑法约束和制裁具有正当性和必要性。
  综上,人工智能产品在其专业领域范围内具有辨认能力和控制能力,并具有自主意识,故需要法律约束。其行为并非如单位犯罪、法人犯罪那样是法律的拟制,而是真正具有与人类相似的行为能力,故可由刑法加以规制。
  2.刑罚感知能力
  反对针对人工智能进行刑法规制的一个重要论点为:人工智能产品无法感知刑罚,故无法真正落实刑事责任。本文认为,这样的观点在目前的技术背景下已不能成立。不可否认,包括自动驾驶汽车在内的所有人工智能产品都是无生命物;但这并不意味着人工智能产品不能感知刑罚,也不意味着刑罚无法实现其一般预防和特殊预防的功能。
  首先,人工智能产品具有生命感知力。没有生命力不等于没有生命感知力。人工智能,尤其是强人工智能经过长期的机器学习,具有初步的思维能力。从生物学的观点看,人类产生意识的根源在于大脑超高数量级的脑细胞的神经传导,大脑结构和神经连接差异与犯罪的联系也得到了初步的证明。{13}而人工智能技术的重大突破即在于模拟人类大脑结构和神经连接,从而产生意识,进行机器学习。事实上,一段代码、一个电子元件在人工智能领域即为其神经元,用以产生自我意识。{10}110尽管人工智能产品不具有生命力,但其自我意识能够产生近似于生命感知力的思维形态。强人工智能能够明白自身的存在,也能产生对其存在的依赖感与对剥夺其存在的不适感。因此,从技术上看,剥夺人工智能产品的存在或者拘束其存在,在强人工智能条件下可以让人工智能产品产生类似于人类的痛苦感。
  其次,大数据在人工智能的机器学习中可以实现预防犯罪的观念灌输。人工智能的机器学习有赖于海量数据的支持,其中自然包含人类法律信息和法律规制的相关数据内容,这些法律数据也应当能够被人工智能产品所学习。众所周知,刑罚的目的不仅在于报应,也在于实现一般预防与特殊预防。从个人处罚正当化的视角看,报应刑观点具有解释力;而在国家和社会层面,刑罚的正当性主要在于一般预防。{14}大数据储备使得刑法规制对人工智能产品犯罪的一般预防具有显著的可行性。如果在人工智能进行机器学习时将人类处置同类乃至人工智能产品的相关判例大数据也让人工智能一并学习,就可以让人工智能产品知道并树立有罪必罚的观点,从而确保人工智能产品产生不去违法犯罪的心理强制。即便强人工智能拥有了一定的自我意识,也能够随时唤醒其机器学习过程中吸收的刑法判例大数据,从而使人工智能产品“通过刑罚威胁的安排,在犹豫不定的灵魂中呼唤不进行犯罪的情感,这种情感帮助反对实施犯罪的心理追求获得优势地位”{15}。从这个角度看,针对人工智能产品定罪、量刑的判例能够在未来的机器学习中令人工智能产品建立正确的守法观念,实现刑罚的一般预防功能。
  最后,针对人工智能产品可以设置不同的新刑罚来实现规制目的。如上所述,人工智能产品具有刑罚感知能力,刑罚可以通过机器学习而实现一般预防的功能,因此,自然可以对人工智能产品施加刑罚,从而起到报应与预防的目的。有学者认为,针对人工智能产品的刑罚不同于惩罚自然人的刑罚,初步构想可以有删除数据、修改程序、永久销毁三类刑罚。{9}142笔者认为,删除数据、修改程序尚无法视为刑罚,因为其目的不在于惩罚,甚至也无法让人工智能产品产生基于刑罚的痛苦,而只是通过修理的方式消除人

  ······

法宝用户,请登录后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
【参考文献】

{1}[英]卡鲁姆·蔡斯.人工智能革命:超级智能时代的人类命运[M].张尧然,译.北京:机械工业出版社,2017:174.

{2}中国新闻网.优步自动驾驶事故致死美亚利桑那州暂禁测试[EB/OL].(2018-03-27).http://dw.chinanews.com/chinanews/content.jsp? id=8476998&classify=zwsp&pageSize=6&language=chs.

{3}张明楷.刑法学(第五版)[M].北京:法律出版社,2016.

{4}梁根林.当代刑法思潮论坛(第一卷:刑法体系与犯罪构造)[M].北京:北京大学出版社,2016:159-167.

{5}[德]乌尔斯·金德霍伊泽尔.刑法总论教科书(第六版)[M].蔡桂生,译.北京:北京大学出版社,2015.

{6}[日]西田典之.日本刑法总论[M].刘明祥,王昭武,译.北京:中国人民大学出版社,2007:160.

{7}吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(5):130-131.

{8}[德]汉斯·海因里希·耶塞克,托马斯·魏根特.德国刑法教科书[M].徐久生,译.北京:中国法制出版社,2017:560.

{9}刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018,(1).

{10}马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报(社会科学版),2018,32(2).

{11}[日]前田雅英.刑法总论讲义(第6版)[M].曾文科,译.北京:北京大学出版社,2017.

{12}刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018,(1).

{13}郭笑,杨波.刑事责任能力评定的神经法学观点[J].证据科学,2016,24(1):113-115.

{14}[日]佐伯仁志.刑法总论的思之道·乐之道[M].于佳佳,译.北京:中国政法大学出版社,2017:4.

{15}[德]克劳斯·罗克辛.德国刑法学总论(第1卷)犯罪原理的基础构造[M].王世洲,译.北京:法律出版社,2005:41.

{16}刘源,杨诚.交通肇事罪共犯问题辨析[J].法学,2012,(4):156-157.

{17}童德华.共同过失犯初论[J].法律科学(西北政法学院学报),2002,(2):59-61.

{18}刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,(1):5.

{19}陈晓林.无人驾驶汽车对现行法律的挑战及应对[J].理论学刊,2016,(1):129-131.

©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
扫码阅读
本篇【法宝引证码CLI.A.1241571      关注法宝动态:  

法宝联想
【相似文献】
【作者其他文献】

热门视频更多