查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《地方立法研究》
人工智能与法律责任
【英文标题】 Artificial Intelligence and Legal Liability
【作者】 约翰·金斯顿(著)魏翔(译)
【作者单位】 英国布莱顿大学安全智能可用系统中心{高级讲师}中山大学法学院{博士研究生}
【分类】 人工智能
【中文关键词】 人工智能;刑事法律责任;民事法律责任;人工智能系统的局限性
【英文关键词】 Artificial Intelligence, criminal legal liability, civil legal liability, limitations of AI systems
【期刊年份】 2019年【期号】 1
【页码】 35
【摘要】 最近,在一本热门的计算机信息处理技术杂志中,提出了一个关于人工智能和法律责任的问题,如果一个行人被自动驾驶汽车杀死了,应该适用什么法律。本文将关注人工智能计算机系统的相关法律责任问题,还将讨论人工智能计算机系统是否需要承担刑事法律责任,谁可能承担;在民事法律中,人工智能程序是作为一种适用产品设计法的产品,还是作为一种适用过失侵权的服务。此外,文章还讨论了销售保证的问题,以及人工智能系统面临的一些实际局限。
【英文摘要】 A recent issue of a popular computing journal asked which laws would apply if a self—driving car killed a pedestrian. This paper considers the question of legal liability for artificially intelligent computer systems. It discusses whether criminal liability could ever apply; to whom it might apply; and, under civil law, whether an AI program is a product that is subject to product design legislation or a service to which the tort of negligence applies. The issue of sales warranties is also considered. A discussion of some of the practical limitations that AI systems are subject to is also included.
【全文】法宝引证码CLI.A.1252688    
  一、引言
  有一本热门计算机期刊的最新一期[1],提出了以下问题:这是2023年,自动驾驶汽车第一次在城市街道的行驶中攻击并杀死了一名行人。一场诉讼肯定会随之而来,但究竟适用什么法律呢?没人知道。
  这篇文章还指出,可能适用的法律是处理产品设计缺陷的法律制度。然而,此文认为,使用产品缺陷法会阻碍自动驾驶汽车的发展,产品设计问题案件的处理数量(在美国)明显高于人类过失案件的处理数量几乎10倍,这还不包括召回产品的额外成本。这篇文章还认为,此类案件应作为过失案件处理,就像人类司机一样。作者引用美国侵权法标准导论中的[2]规定:“对于过失行为而言,一种糟糕的精神状态既不是必要的,也不是充分的,行为就是一切。”
  还有其他问题可能在2023年之前出现。这篇论文的作者最近租了一辆车,其中有几个新的安全特性。其中一个特性是,当汽车行驶速度在4到19英里每小时之间,如果汽车的雷达探测到即将发生碰撞,那么汽车的引擎就会被关闭以避免发生碰撞。
  当作者倒车离开私人车道时,作者将车开得离旁边的障碍物太近,汽车近距离警报被触发,引擎被关闭。其实,当倒车时适当调整方向盘位置,也可以躲避障碍物。但是,根据当时的情况,如果汽车仍处于倒挡状态,引擎就不会重新启动。因此,作者如果想继续倒车,就不得不把汽车挡位调至前进挡,向前适当前进并调整方向。
  以上的情形全部发生在私人车道上,然而,如果以上情形发生在汽车尾部准备驶进道路中,而且一辆重型卡车正以某种速度向汽车行驶时,大多数司机会宁愿冒着车辆油漆被障碍物刮掉的风险,也不愿坐在一辆拒绝重新启动并需完成所要求操作的汽车上。一些司机会因此卷入一场严重事故,而他们将责备这些“安全特性”,这种情况似乎是不可避免的。
  本文的目的是思考人工智能当前的能力,或者人工智能不足的地方,然后再重新探讨人工智能在上述案例中可能存在的法律责任问题。
  首先,确定什么是这篇文章中所指的“人工智能”是十分重要的。在人工智能领域,有研究人员认为任何模仿人类智力的东西,不管以什么方法进行,都属于“人工智能”;还有一些研究人员认为,人工智能程序只是那些模仿人类思维方式的程序;在信息系统领域,也有研究人员将许多“人工智能”程序仅仅视为复杂的信息系统,他们认为真正的人工智能应是元决策(meta-level decision),后者有时被描述为智慧。
  而在这篇文章中,任何能够识别情况或者事件的计算机系统,并且以“如果存在这种情况,那么建议或执行这个行动”作为决策形式的系统,都是一个人工智能系统。
  二、法律责任
  (一)刑事法律责任
  以下引用的参考文献主要是指美国法律,但是其他司法管辖区在相关领域也有相似的法律规范。哈勒维(Hallevy)在其文章中讨论了,[3]人工智能实体如何,以及是否可能被追究刑事法律责任。刑法一般要求有犯罪行为和犯罪意图,为利于问题的探讨,哈勒维对刑法进行了以下分类:
  (1)有些犯罪行为由积极的行动组成,有些犯罪行为也由不作为构成组成。
  (2)有些犯罪意图需要认识或者被告知,有些犯罪意图只需要过失(一个理性的人本应知道);严格责任犯罪[4]中没有任何犯罪意图需要被证明。
  哈勒维还提出了人工智能系统犯罪行为的三种法律模型:
  (1)犯罪者通过他人犯罪。如果犯罪行为是由一个精神有缺陷的人实施的——一个小孩子或者一只动物,那么罪犯被认为是一个无罪的主体,因为他们缺乏构成犯罪意图的心智能力(即使是严格责任犯罪也是如此)。然而,如果这个无罪主体是受其他人命令或指示的(比如,如果狗的主人指示他的狗去攻击某人),那么指示者需要承担刑事法律责任。[5]基于以上模型,人工智能程序可以被认为是一个无罪主体,软件程序员或用户则被认为是犯罪者通过他人犯罪中的情形。
  (2)自然可能的后果。在这个模型中,一部分本为良好目的设计的人工智能程序被错误地激发,并且产生了犯罪行为。哈勒维列举了一个案例,[6]日本的一名摩托车厂员工被一个在他旁边工作的人工智能机器人杀死了。机器人将该员工错误地认定为是其完成任务的威胁,并计算出消除这种威胁的最有效方法是将其推向相邻的操作机器。机器人用它非常强大的液压臂,把惊讶的工人猛烈地撞到相邻机器上,当场杀死了他,然后又恢复了工作。
  对“自然可能的后果”中责任的正常法律适用是起诉共犯。如果罪犯的犯罪行为是在共犯鼓励或帮助下[7]的自然可能的后果[8],只要共犯意识到犯罪计划正在进行中,即使没有共同犯罪意图被证明,该共犯仍然可能需要承担法律责任(在美国法律实践中)。
  因此,如果用户或者(更可能)程序员知道犯罪行为是程序或者应用的一种自然可能的后果,他们需要承担法律责任。这一原则的应用必须区分人工智能程序“知道”一项犯罪计划正在进行中(它们已经被设定为执行一项犯罪计划),还是“不知道”(它们被设定为另一个目的)。在后一种情况中,人工智能程序很可能由于缺乏犯罪意图而不被起诉。
  (3)直接责任,这个模型将犯罪行为和犯罪意图都归因于人工智能系统。
  将犯罪行为归因于人工智能系统是相对简单的,如果一个人工智能系统采取了一项行动,并且该行动构成犯罪,或者当有需要承担义务时却没有采取行动,那么就产生了符合犯罪构成要件的犯罪行为。
  确定犯罪意图较为困难,所以三个层次的犯罪意图是十分重要的。对无需犯罪意图的严格责任犯罪,人工智能程序确实有可能承担刑事责任。如自动驾驶汽车的案例,超速行驶是一种严格责任犯罪,所以根据哈勒维的理论,如果一辆自动驾驶汽车被发现违反了道路的限速规定,正在“驾驶”汽车的人工智能程序很可能需要承担该刑事法律责任。
  这种可能性引发了哈勒维所涉及的许多其他问题,包括抗辩理由(人工智能程序发生故障的抗辩理由是否可以与人患精神病的抗辩理由相类比,人工智能程序受到电子病毒影响的抗辩理由能否与人受强迫或中毒的抗辩理由相类比)和处罚(谁或什么会因一个人工智能系统承担直接责任的犯罪而受到处罚)。
  (二)木马病毒的辩护
  在人工智能系统的法律责任辩护中,谈及一些案件是十分重要的,这些案件中,一些被控告网络犯罪的辩护方成功提出辩护。比如,有的辩护方认为犯罪嫌疑人的电脑被一个木马或类似的恶意软件所控制,这些软件利用被告人的电脑犯罪,但被告人并不知情。其中包括一个发生在英国的案例,在一部含有儿童不雅照片的电脑中,也被发现有11个木马程序;还有另一个英国的案例,一名青年电脑黑客对其拒绝服务的攻击的指控进行辩护,这次攻击是由一个木马程序在其电脑上进行的,然后木马程序在法庭分析前从电脑中被其自动清除了。[9]辩护律师成功地说服陪审团,令他们相信这样的情形并没有排除合理怀疑。
  (三)民事法律责任:侵权行为与违反保证
  1.过失
  当软件有缺陷时,或者当一方因使用软件而受到伤害时,由此产生的法律诉讼通常适用过失侵权而非刑事法律。[10]葛斯纳(Gerstner)讨论了成功证明过失侵权主张所必要的三个要素:①被告人有注意义务②被告人违反了这项义务。[11]违反义务的行为造成了对原告的伤害。
  关于第一个要素,葛斯纳认为,软件供应商对消费者有注意义务,这是毫无疑问的,但是决定供应商需要承担什么标准的注意义务是困难的。如果所涉及的系统是一个“专家系统”,那么葛斯纳建议恰当的注意义务标准是专家级的,或者至少是专业级的。
  关于第二个要素,葛斯纳提出了人工智能系统可能违反注意义务的多种可能方式:开发者本该可以检测到的程序功能中的错误,一个错误或者不完备的知识库,错误或不完备的文件和提醒信息,没有保持知识库的更新,用户提供了错误的输入,用户过度依赖输出,用户使用程序的目的是错误的。
  关于第三个要素,人工智能系统是否可以被认为造成了伤害?对此尚无定论。关键的问题可能是,人工智能系统是否在给定的情况下“建议”采取行动(如许多专家系统),或者“直接”采取行动(如有自动驾驶和安全装置的汽车)。在前一种情况中,必须涉及至少一个其他主体,因此很难证明因果关系;在后一种情况中,证明就显得简单很多。
  葛斯纳还讨论了在美国法律背景之下,“严格责任中过失”的一种例外情况。这适用于在正常、有目的、可合理预知的情况下,使用的产品有缺陷或不合理的危险,并造成损害(而不是经济损失)。此外,关于人工智能系统是一种产品,还是仅仅是一项服务的讨论中,她引用了一个案件[12],该案件中电力被认为是一种产品。因此,她倾向于将人工智能软件定义为一种产品而不是一项服务。假设人工智能系统确实是一种产品,人工智能系统的开发人员有责任确保他们的系统不受设计缺陷、制造缺陷、不恰当提醒和指令的影响。
  科尔(Cole)对人工智能软件是产品还是服务的问题进行了更广泛的讨论。[13]他的结论是,将人工智能系统视为产品充其量是“部分适用”,他更倾向于将人工智能系统视为一种服务而不是一种产品,但他承认关于这个领域的法律定乂是不明确的。
  科尔列举了一些关于人工智能系统必须遵守注意义务的法律案件:
  (1)一个学区对统计部门提出了一个过失侵权索赔,因为统计部门所提供的关于学校被烧毁的价值计算不准确,导致该学校因保额补偿不足而造成损失。[14]案件中所指的义务是在合理注意的基础上提供信息,法院考虑了一些因素包括:如果有的话,是否存在信息准确性的保证;被告关于原告将依赖于这些信息的认识;对一个小群体的潜在责任的限制;缺乏当发现错误而进行任何修正的证明;要求一个无罪当事人承担由其他人的专业上的错误产生的后果是不好的;在信息(工具)提供者中推广提醒的技术。
  (2)科尔还讨论了从不合理输入中提供合理结论的义务。[15]根据另一案件[16],他认为人工智能系统的开发者很可能需要承担一个积极的义务,以提供相对实惠的、无害的、简单的输入错误检查技术,并且需要注意到一些规则可能不适用于人工智能程序的执行功能,其中错误输入可能直接危及生命(例如给病人用药)。在这类案件中,他建议改用与“极端危险活动和工具”[17]的相关规则。[18]
  (3)科尔提出,必须认识人工智能系统的局限性,而且这种局限性的信息必须向消费者传达。众所周知,供应商有责任告诉消费者任何已知的缺陷,但是如何确定未知的威胁或缺陷,然后与消费者进行沟通呢?
  2.违反保证
  如果人工智能系统确实是一种产品,那么它必须在有保证的基础上销售,即使供应商没有明确的保证(或者由用户购买),有一种默示保证[19](根据英国产品销

  ······

法宝用户,请登录后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
本篇【法宝引证码CLI.A.1252688      关注法宝动态:  

法宝联想
【相似文献】