查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《法律科学》
自动决策算法的法律规制:以数据活动顾问为核心的二元监管路径
【作者】 林洹民【作者单位】 浙江大学光华法学院
【分类】 人工智能
【中文关键词】 人工智能;算法监管;系统耦合;数据活动顾问;数据活动监管局
【英文关键词】 artificial intelligence; algorithm supervision; system coupling; data activity consultant; data activity supervisory authority
【文章编码】 1674-5205(2019)03-0043-(011)【文献标识码】 A
【期刊年份】 2019年【期号】 3
【页码】 43
【摘要】 大数据和人工智能的发展使得以自动决策为特征的算法被广泛使用,这也使得算法透明化的目标愈发紧迫。强制公开算法路径、验证或认证算法路径、个人算法解释权和算法结果控制等都是对算法监管的有益探索,但或因有违基本的制度期待,或因适用范围有限,而无法成为算法监管的有效手段。算法监管涉及政治、经济和法律三个社会子系统,应当通过数据活动顾问这一“接口岗位”实现系统间的结构耦合,从而借助系统间的协力有效监管算法活动。有鉴于此,我国应当设立以数据活动顾问为主、数据活动监管局为辅的二元算法监管机制:数据活动顾问从企业内部对算法的设计、使用和评估进行陪同控制;数据活动监管局则从外部对数据活动顾问提供必要的援助和监督。
【英文摘要】 The development of big data and artificial intelligence is making algorithms, characterized by automatic decision, widely used, which correspondently makes the need of algorithm transparency much more urgent. The idea of mandatory disclosure, verification or certification of algorithm, personal right of algorithm interpretation or the control of the algorithm result is though inspiriting, but may not be an effective way to supervise the use of algorithm, because it either violates the basic expectation of people or has a very limited application scope. Three social subsystems are involved in Algorithmic supervision, specifically political, economic, and legal system. As a Result, data activity consultant should be made to play the "interface role" to realize the structural coupling between systems, so that different subsystems would cooperate to effectively supervise the algorithm activities. China should set up a binary algorithm supervision mechanism, in which data activity consultants work primarily and data activity supervisory authority plays a secondary role to assist. Detailly, data activity consultant has an accompanying control of the design, use, and evaluation of algorithms within the enterprise; meanwhile, the data activity supervisory Authority provides data activity consultants necessary assistance and supervision from outside.
【全文】法宝引证码CLI.A.1263039    
  一、引言
  随着人类的数据量从TB(1024GB=1TB)级别跃升到PB(1024TB=1PB)、EB(1024PB=1EB)乃至ZB(1024EB=1ZB)级别,算法就成为人类应对海量数据的必然选择。人们通过算法评估数据,分配优先性以寻求思维经济:搜索引擎的运作机理是算法;算法已经大面积在信用卡、房贷申请以及人才招聘中得到应用;很多媒体也借助算法挑选人们感兴趣的热点话题。{1}算法不仅能够帮助人类更好地决策,同时也呈现出替代人类选择的趋势。算法无疑会让我们生活更为便利。但在另一方面,算法本身却也有着不透明、不公开的弊端。我们不知道算法背后是否隐藏着不可告人的秘密,不清楚算法是如何被设计以及它如何使用数据。在人工智能研发如火如荼的当下,算法不透明[1]、黑箱程序的大量存在[2],也使得对人工智能的监管难以展开。人们应当建立能够充分监管算法的管理机制,因为灾难一旦发生,人们或许并没有改错的机会。借助网络的普及和物联网的构建,算法一旦被滥用就可能变成“杀伤性数学武器”(Weapons of Math Destruction),给个体和社会带来的危害将远大于传统武器。{2}这种高危险性使得利益攸关方、监管机关和公众必须能够对算法的内容和可能带来的后果有着较为清晰的认识。
  二、算法透明化的可能进路及其弊端
  为了加强对算法的监管,人们提出了一些确保算法透明的有益尝试:强制性公开算法、算法的验证或认证机制、个人的算法解释权以及算法结果控制等。遗憾的是,这些路径皆因自身的局限性而不能充分实现监管目的。
  (一)强制性算法公开路径
  确保算法透明性的直观方案便是要求企业公布自身的算法,但这种方案面临两项阻碍:1.公司有意使得决策程序远离公众视线;2.技术素养的差距使得对于大多数人来说,即使能够访问隐藏的代码也是无用的。{3}
  1.公司的勉强
  对企业而言,算法的不透明很大程度上是一种自我保护的方式。诚然,透明性有利于加深彼此之间的理解、建立用户对商家的信任,但提升透明度也存在着增加成本以及削弱企业竞争优势的危险。{4}通过保守算法的秘密,企业得以维持自身的竞争优势和商业秘密,进而在激烈的市场竞争当中占据优势地位。{5}算法是互联网企业的核心竞争力,如果将自身的算法公布,等于要求企业主动放弃自己投资研发的智慧成果,而将自身暴露在竞争对手的视线当中。再者,企业的核心目标是赚取商业利益,而非实现公正。算法的公布总是可能带来影响其商品和服务的风险。出于对风险的厌恶心理,企业也往往不愿意将算法公之于众。除此之外,企业也会主张,如果他们公布算法,那么博弈就开始了。其他人会借此了解算法的内部逻辑,从而开发出针对特定算法的应对策略以使自己获得更高的排名或者信用评级。于是,为了保证算法的有效性,企业就只能在这种“猫鼠对抗游戏”中使得大部分算法处于不公开的境地。{6}法律应是确保规范性期望实现,疏解和救济失望之工具。{7}134强制要求公布算法等同于要求每个人都是天使,这是不符合规范性期待的。
  2.技术鸿沟
  毫无疑问,算法的书写甚至阅读都是一项专业技能。对普罗大众而言,算法是另外一种语言。与人类的自然语言相比,计算机语言要求特别的准确性、正式性和完整性。这就要求算法必须在特定的编程语言中被设计——如C语言或Python语言等。计算机语言的拼写、语法和逻辑又与人类的自然语言存在着极大的不同,这就使得未受过专门训练的普通人无法理解算法。因此,即使将算法程序公开,大多数人也只能选择性忽视。面对这一问题,有学者主张发挥媒体的广而告之作用——可以通过记者将算法解释给人们。{8}然而,这种主张依赖于媒体自身有能力对算法进行评估——这就要求记者具备较高的计算机素养。而媒体行业计算机素养的提升又依赖于整个社会的计算机教育的普及化。面对这种情况,美国在2016年发布的《大数据报告:算法系统、机会与公民权利》中提出,应当扩大计算机科学和数据科学的参与性,包括扩大机会,提高所有美国人对大数据算法的熟悉和了解程度。美国政府主张,教育机构和企业应该寻找方法为更多的美国人提供机会,使他们更清晰地理解算法问题是如何影响普通人的以及未来的发展趋势。{9}且不论这种对算法的通识教育是否能够真正普及,随着计算机技术的发展,技术的排他性已经愈发明显。很多算法是难以置信的复杂系统。例如,谷歌在2015年是依托超过二十亿行的代码才得以运行的[3]。这些复杂的算法即使对于业内专家都是需要花费大量的时间和精力才能了解。一般性的计算法素养并不能充分满足对算法的解读要求。上述因素的叠加就使得算法即使被公布于众,公众也只能束手无措。
  我们或可考虑通过行政机关充分监管算法。遗憾的是,技术壁垒也同样适用于公务人员。源于数据活动的技术性和复杂性,常规的司法和行政机构往往因欠缺专门知识而无力解决和数据处理有关的纠纷[4]。换言之,达摩克利斯之剑无法真正落下。数据活动的技术性使得数据活动天然地具备秘密性,不了解技术的司法和行政机构工作者根本无力判断数据活动是否合规。
  综上所论,强制性的算法公开不仅会遭遇企业的抵制,其监督目的也未必能够如期实现。即使在格外强调实质正义的德国,联邦最高法院也认为,要求信用卡公司公开信用评估核心公式(Scoreformel)是不合理的,算法因构成了公司的核心商业秘密(Gesch ?ftsgeheimnis)而受到法律保护[5]。算法的强制公开路径应为法秩序所拒绝。
  (二)验证或认证算法路径
  当算法设计者完成设计时,他们必须对该算法为适当之验证(verification),以保证算法的有效性和合规性。可以说,测试与验证已经构成了计算机科学的一个相当丰富和活跃的子领域。{10}644目前验证的路径主要有两种:静态验证和动态验证。静态验证是指回顾算法,查询设计上的不足;动态验证则是通过样本测试的方式,检查程序的实际运作。{10}647-52在没有充分验证的情况下即让算法投入应用,设计者应对可能产生的不利后果负责。既然回顾算法设计对行政机关要求过高,那么或可以建立一套动态验证机制,通过评估算法结果实现对算法的监管。美国公平售房法(Fair Housing Act)即通过提供资金援助的方式,鼓励分支机构、非公益组织以及个人测试网上售房系统[6],以期通过测试和执法行为预防或消除对网上售房的歧视[7];如果通过验证发现,亚洲学生在网上参与美国高考培训网站的课程,要比非亚洲学生多支出近一倍的价格[8],那么也可以主张歧视和不公,从而要求培训机构修改算法以确保公平。就司法系统而言,美国联邦最高法院早在1982年就认同了验证作为一种发现歧视证据的重要手段[9]。时针拨到当下,鉴于算法的广泛应用,有学者建议美国联邦贸易委员会建立频繁的验证制度,判断算法评分系统的输出结果是否反映出程序员的潜在偏见或AI学习到的偏见。{11}除此之外,也有学者主张,政府应当根据验证结果出台和公布风险估计报告和建议,确保公众及时了解算法可能的负面影响;{12}公布的验证报告也将使得学者和其他专家能够评论算法,从而起到了集思广益的效用。{13}然而,任何意图借助公权力治理的设想,都依赖于政府职能的健全和职能行使的认真性和严肃性。在算法普遍运用之当下,政府并无热情对各行业、各领域之算法为充分之验证;在人工智能大量使用之未来,依赖政府部门验证海量的算法,是否对政府能力期待过多,也不无疑问。
  另外一种值得关注的路径是,立法可以要求企业聘用第三方机构对自身的算法进行审计(Audit)或认证(Certification)。对算法的审计或认证不能依赖公司自律,毕竟商业公司的目的是效率而非公正,第三方认证相较于公司自律而言更有助于捍卫公共价值。这种审计和认证不限于动态认证,认证机构应当审查算法设计,因此较之于验证机制而言,其管控也显得更为可靠。美国正在尝试推动算法验证和大数据系统外部测试的学术研究和产业发展,希望以此迫使利益相关者和技术设计者能够主动调查算法的歧视性,通过以行为科学为基础的新技术主动地避免歧视。{14}在德国,也有学者建议如同对元器件产品TüV认证一样,建立算法认证制度(Algorithmen-TüV)。{15}然而,这种认证机制可能会给企业带来巨大的财务压力。大公司或许还可以忍受这一成本,中小公司则可能颇受其扰;这种法律强制的财务压力也可能成为阻碍创业者的财务壁垒,使得有才华的年轻人难以设立自己的公司,进军算法设计行业。正是基于这一原因,《欧盟一般数据保护条例》(GDPR;下文简称《条例》)并没有强制性地要求企业的数据活动接受第三方机构的认证。《条例》第42条第1款规定,相关部门应当鼓励而非强制性地建立数据保护认证机制;该款第2句特别强调,“对此应当考虑微型、小型以及中型经济主体的特定需求。”与此同时,《条例》第42条第3款明确规定:“认证应当是自愿的,而且可以通过透明程序而获得。”
  综上所论,我国或可建立验证和认证制度,但算法验证只能在有限的领域内采用;算法认证也应是建议性,而非强制性的。验证和认证制度虽然可在一定程度上实现算法的透明化,但显然不是一套全面的算法监管机制。
  (三)个人的算法解释权路径
  有学者提出,法体系应当授予用户事后的算法解释权,以化解合同双方的力量不对等状态,限制“算法权力”,实现合同平等、自由和正义。{16}68-72她认为,当自动化决策算法的具体决定对相对人有法律上或者经济上的显著影响时,相对人有权向算法使用人提出异议,要求提供对具体决策解释,并要求更新数据或更正错误,此即为个人的算法解释权。{16}68
  然须注意,算法解释权路径首先依赖于算法在技术上的可解释性。对于简单算法而言,设计师可以控制特征,因此也可以解释效果。但在机器学习高度发达的今天,算法的特征设定变得不再必要,机器将在深度学习算法的指引下自行选定特征,设计评估和决策算法。与之相应,算法的效果就越来越依赖于大量数据和硬件的支撑,其所得结论的解释性也变得越来越孱弱:设计者能够提供算法模型,却无法解释其产生的依据。为了更清晰地解释这一技术,笔者略谈人工智能的研发进路。大脑的奥秘目前尚未能破解,于是人们倾向于借助仿生学的指引打造机器人的“神经元”(处理器)和“神经突触”(网络连接),从而使得机器获得学习能力。此时的机器即如同一个什么都不懂的婴儿,需要通过大量的数据学习和成长。但是在孩子诞生那一刻,我们却无法预测其未来。机器学习使得决策所依据的因素就连设计者都不完全清楚。正是基于这一着眼目标实现而无视过程透明性的特质,人们才将机器学习的决策过程称为“黑箱”。
  规范上的期望,倘若没有附带注意到可执行性问题,那么就无法获得实行。个人算法解释权对简单算法尚属可行,但在机器学习模式下则根本不可能要求“解释具体决定的逻辑和个人数据的权重”。{16}72如果法律强行创设这一解释权,企业或只能公开算法设计,让用户自行判断算法决策可能之参考因素。这无异于要求企业公开其商业秘密,有违商业公司的基本期待。因此,认为算法解释可不涉及技术细节,因此不会影响创新,恐怕过于乐观。{16}72企业也可能选择“打太极”,抽象地解释算法的运作逻辑,以保护自己的商业秘密。例如,百度公司在“魏泽西案”中回应道,其竞价排名的结果是由出价和推广链接质量度之间的乘积决定的;至于质量度的计算,百度推广系统会综合考量推广链接的用户点击率(点击率高表明对用户的满足程度高)、用户网站与搜索关键字之间的匹配程度、推广链接内容与实际搜索关键字之间的匹配程度等等因素[10]。这种模糊的一般性的表达使得我们无法“反事实(counterfactual)”[11]地获知:如果不是因为医院出价最高,其就不会位于百度搜索结果的顶层。这种模糊性解释使得算法仍然处于黑箱当中,而百度也借机逃脱了法律归责。
  算法解释权的构想在机器学习领域不仅“履行不能”,而且还可能南辕北辙,成为数据公司逃避自身责任的工具。正是基于上述考虑,即使是被部分媒体解读为“史上最严个人信息保护法”的《条例》也没有采纳个人的算法解释权这一进路。{17}解释(Explanation)一词在《条例》中仅仅出现在序言第71条,而序言条款是不具备直接拘束力的[12]。与之相对,《条例》正文并无条款赋予个人打开黑箱的权利。《条例》第22条第1款仅仅规定了数据主体对自动决策的防御权(Abwehrrecht)。{18}{19}数据主体有权反对自动决策:完全依靠自动化处理——包括用户画像——对数据主体做出具有法律影响或类似严重影响的决策。第22条第3款也只是要求数据控制者为数据主体提供适当的抗议渠道,而非承担解释算法的义务。再者,数据控制者的告知义务规定于《条例》第13条和第14条[13],这一告知义务是事前性的而非一种事后解释。《条例》第12条第7款,第13条和第14条涉及的是对意欲处理的信息说明。第29条数据保护小组对第13条和第14条的解释也明确表明,第13条和第14条旨在要求数据控制者在事前提供信息,{20}25告知数据主体数据处理的可能结果,{19}25从而使得“数据主体提前获知所欲的或将来的数据处理以及自动决策可能会如何影响数据主体”。{19}26因此,我们并不能从第13条和第14条当中推导出数据主体事后的要求解释的权利。从教义学视角分析,也可能从《条例》第15条规定的数据访问权中推导出数据主体事后的算法解释权。然而,第29条数据保护小组表示,涉及自动决策的第15(1)(h)条与第13条和第14条规范目的一致,均是要求数据控制者事前说明对数据主体的可能影响。{19}26-27再者,第15(1)(h)条也采用了预期结果这一表达,将该条规范范围扩张至事后解释,有超越文义之嫌。综上所述,即便是《条例》也没有赋予数据主体要求数据控制者解释算法的权利。算法解释权路径从未真正获得过立法者的认同。
  (四)算法结果控制路径
  与上述三种路径不同,我国当下更倾向于对算法结果施加直接的控制。例如,在魏泽西事件之后,国家互联网信息办公室发布的《互联网信息搜索服务管理规定》第11条明确要求互联网企业在提供付费搜索信息服务时,应当“依法查验客户有关资质,明确付费搜索信息页面比例上限,醒目区分自然搜索结果与付费搜索信息,对付费搜索信息逐条加注显著标识”。该《规定》还要求互联网信息搜索服务提供者不得以链接、摘要、快照、联想词、相关搜索、相关推荐等形式提供含有法律法规禁止的信息内容(第7条),不得损害国家利益、公共利益,以及公民、法人和其他组织的合法权益(第10条)。除此之外,鉴于网站多通过算法提供链接,《侵权责任法》第36条规定的“避风港原则”实质也是一种典型的结果控制方式。
  然而,算法结果控制路径要么对网络服务提供商要求过苛,要么真正成为网络服务提供商不积极作为的“避风港”。《互联网信息搜索服务管理规定》要求互联网企业必须对搜索结果负责,从条文表达来看,互联网企业甚至不能以无过错为由进行抗辩。如果要求行为人对结果负责,要么隐含的逻辑是,行为人有能力控制行为结果。但在人工智能时代,算法的运行处于黑箱当中,即使是算法的设计者都未必知晓算法结果。要求互联网企业对搜索结果负责,无异于要求企业事实上成为虚拟世界的政府。而在另一方面,“通知-删除”的过错规则又对网络服务提供商过于优容,使得其大胆地放任违法行为的传播和推广。有鉴于此,欧盟法院在“海盗湾”(The Pirate Bay)一案中已经突破了“避风港原则”的限制。欧盟法院明确表示,网站本身的索引系统允许用户跟踪、上传和下载受保护的作品即构成了对公众的传播,至于网站本身是否含有受保护作品,在所不问[14]。欧盟法院明显希望网站做得比当下更多。
  追究事后责任是人们习惯的规制路径。但在算法大量运用的时代,结果控制路径要么容易演化为严格责任,桎梏了互联网企业的发展;要么使得互联网企业不承担积极作为义务,置公共利益于不顾。对算法的监管呼唤着有益的观念变革和制度创新。
  (五)评价和展望
  企业捍卫算法的私密性是维护自身核心竞争力和商业秘密的必然要求。何况,技术鸿沟的存在也使得算法公开不见得有效。但在另一方面,对算法的监管又势在必行。如同帕斯克瓦拉在《黑盒子社会:控制金钱和信息的秘密算法》一书中写到的那样:“对于算法的策略性对抗确实是存在的,但是怎么证明金融家确保算法的不透明就不是对于法律的策略性对抗?”{21}以保证商业秘密和企业竞争力之名的算法非透视性同样可能带来规避法律、误导乃至歧视消费者的危险。在这一背景下,美国的验证和认证路径颇值得我们关注。然而,外部验证路径受限于公共部门的固有弊端:公权力是否有足够的时间和精力实现充分的外部监督是存疑的。毕竟每一个算法都是不同的,对不同算法是否以及应当如何披露都必须在特定情境下进行判断。{22}第三方认证路径则可能加重企业财务负担,有演变为财务壁垒的危险。个人算法解释权构想在简单算法层面尚有实施之可行性,但面临复杂的机器学习则未免强人所难:机器学习使得设计者都不清楚“黑箱”的内部构造。同样基于该原因,要求互联网企业必须对算法结果负责,这种严格责任将桎梏互联网企业的发展;而如果适用“通知-删除”式的过错责任,企业将真的失去积极作为的诱因。
  尽管未找到合适的路径,我们却也不能因此将监管的权力和任务交于企业或行业自身。公司和行业自律在数字世界中被证明并非是一种成功的范式。{23}数据公司穿上认真负责的外衣,多次公开表态其将认真对待数据保护和算法正义,但一次又一次的丑闻已经暴露了公司利益和社会利益的异质性[15]。在这一背景下,我们没有别的选择,只能继续探索新的监管路径。
  三、系统间的结构耦合:承载政治、法律功能的企业内部连接点
  对算法的监管涉及各个社会系统的内在矛盾:公权力有着防控算法过度剥夺公民自由,提防“奇点来临”导致人类灾难的政治使命[16],但行政机构无力详细审查算法,对企业算法的过度监管也有危及私主体行为自由的嫌疑;企业强调经营自由,但过度强调经济效率引发了外部环境对算法的不信任甚至恐慌,已经现实地影响了数字经济的开展[17];法律系统以正义之实现为自身的耦合性公式,但法院面临着与行政机构类似的执法难题,而如果不能清晰地裁判算法是否合法,那么法律系统就无法顺畅地运行。可见,算法监管在任一系统内部均面临着结构性障碍,这就使得专注系统内部的算法强制公开路径、验证和认证公开算法路径以及个人的算法解释权路径均不能充分地实现算法监管目标。欲满足算法透明化这一涉及多社会系统的诉求,我们就必须首先了解各系统之间的分离和协作原理。如果没有充分理解社会系统的运作机理,我们不可能寻找到自洽的济世之道。
  (一)各社会子系统之间的分离和耦合
  现代社会的基本特征是功能分化:各项社会制度变得越来越专门化、独立自治和技术化。这突出地表现为法律系统、政治系统和经济系统之间的分离:各社会子系统都有着自身的运作规律和逻辑,法律系统以合法与非法为基本的符码,政治系统和经济系统则分别以权力和资源的稀缺性为沟通媒介。直观地说,同样的行为在行政人员、法官或商人的眼中具备着完全不同的意义。{24}446而在往昔,各系统之间分化程度并不明显:法律曾长期被视为统治的工具,法官也由地方行政长官担任;土地也曾经是政治和经济共同依附的资

  ······

法宝用户,请登录后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
【参考文献】 {1} Christer Clerwall. Enter the Robot Journalist 〔J〕.8 Journalism Practice 519,2014.
  {2} Cathy O'Neil. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy 〔M〕. Crown Publisher, September 2016.
  {3} Jenna Burrell. How the machine “thinks”: Understanding opacity in Machine Learning Algorithms 〔J〕.3(1) Big Data & Society 1-12,2016.
  {4} Nelson Granados & Alok Gupta. Transparency Strategy: Competing with Information in a Digital World 〔J〕.37 Management Information Systems 637,2013.
  {5} Bernardo Huberman. Sociology of Science: Big Data Deserve a Bigger Audience 〔J〕.482 Nature 308,2012.
  {6} Christian Sandvig & Kevin Hamilton et al. Auditing algorithms: Research Methods for Detecting Discrimination on Internet Platforms, In: Annual Meeting of the International Communication Association 〔M〕. Seattle, WA, p.9.(2014)
  {7}〔德〕尼古拉斯·卢曼.法社会学〔M〕. 宾凯,赵春燕,译.上海:上海人民出版社,2013.
  {8} Nicholas Diakopoulos. Algorithmic Accountability Reporting: On the Investigation of Black Boxes 〔R〕. Tow Center for Digital Journalism, Columbia University,2013.
  {9} Executive Office of the President. Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights 〔R〕. May 2016.
  {10} Joshua A. Kroll, Joanna Huey. Solon Barocas, etc., Accountable Algorithms 〔J〕.135 University of Pennsylvania Law Review 633(2017).
  {11} Danielle Keats Citron & Frank Pasquale. The Scored Society: Due Process for Automated Predictions 〔J〕.89 Washington Law Review 1(2014).
  {12} Tal Zarsky. Transparent Predictions 〔J〕.2013 ILL. L. REV.1503,1529.
  {13} Kenneth A. Bamberger & Deidre K. Mulligan. Privacy Decision-making in Administrative Agencies 〔J〕.75 U. CHI. L. REV.75,81–82,88–89,2008.
  {14} Devin G. Pope & Justin R. Sydnor. Implementing Anti-Discrimination Policies in Statistical Profiling Models 〔J〕.3 American Economic Journal: Economic Policy 206,231,2011.
  {15} J?rg Dr?ger. Ein Tüv für Algorithmen 〔R〕. Handelsblatt vom 21.08.2017; Mario Martini, Transformation der Verwaltung durch Digitalisierung 〔J〕. DVBI 2017,443,453.
  {16}张凌寒.商业自动化决策的算法解释权研究〔J〕.法律科学,2018,(3):68-72.
  {17} Sandra Wachter. Brent Mittelstadt & Luciano Floridi, Why a Right to Explanation of Automated Decision-Making does Not Exist in the General Data Protection Regulation 〔J〕,7 Int’l Data Priv. Law 76,42(2017).
  {18} Mario Martini. DS-GVO Art.22 Automatisierte Entscheidungen im Einzelfall einschlieβlich Profiling, in: Paal & Pauly, Datenschutz-Grundverordnung Bundesdatenschutzgesetz: DS-GVO BDSG 〔M〕.1. Aufl., C. H. Beck, München 2017, Rn 35-37.
  {19} Mario Martini. Algorithmen als Herausforderung für die Rechtsordnung 〔J〕. JZ 21/2017, S.1019.
  {20} Article 29 Data Protection Working Party. Guidelines on Automated Individual Decision-making and Profiling for the Purposes of Regulation 2016/679〔R〕. Adopted on 3 October 2017 und as last Revised and Adopted on 6 February 2018.
  {21} Frank Pasquale. The Black Box Society: The Secret Algorithms that Control Money and Information 〔M〕. Cambridge, MA: Harvard University Press(2016).
  {22} Nicholas Diakopoulos, Accountability in Algorithmic Decision Making 〔J〕.59(2) Communication of The ACM 61(2016).
  {23} Wolfgang Hoffmann-Riem. Verhaltenssteuerung durch Algorithmen- Eine Herausforderung für das Recht 〔J〕. A?R 142, S.39(2017).
  {24} Niklas Luhmann. Das Recht der Gesellschaft 〔M〕.1. Aufl., Suhrkamp Verlag, Frankfurt am Main 1993, S.340-481.
  {25}苏永钦.寻找新民法〔M〕.台北:元照出版社,2008.
  {26} Gola/Schomerus. Bundesdatenschutzgesetz Kommentar 〔M〕.12. Auflage, C. H. Beck 2015,§ 4f Rn.1,20,53,§ 4g Rn.18,§ 38 Rn.7.
  {27} Schaffland/Wiltfang. Bundesdatenschutzgesetz Kommentar 〔M〕. Erich Schmidt Verlag 2016,§ 4f Rn.22.
  {28} Mario Martini. Big Data als Herausforderung für den Pers?nlichkeitsschutz und das Datenschutzrecht 〔J〕. DVBl 2014,1481(1485 f.).
  {29} Spiros Simitis. Bundesdatenschutzgesetz Kommentar 〔M〕.8. Aufl., Nomos Verlag 2014,§ 4f Rn.2,122,130ff..
  {30} Bergmann/M?hrle/Herb. Datenschutzrecht: Kommentar zum Bundesdatenschutzgesetz, den Datenschutzgesetzen der L?nder und zum Bereichsspezifischen Datenschutz 〔M〕. Stuttgart 2014,§ 4g Rn.80.
  {31} D?ubler. in: D?ubler/Klebe/Wedde/Weicher, BDSG Kommentar 〔M〕.5. Aufl., Bund Verlag 2016,§ 4f Rn.1,44.
  {32} Eβer/Kramer/v. Lewinski. BDSG Kommentar 〔M〕.4. Aufl., Carl Heymanns Verlag 2014,§ 4f Rn.112.
  {33} Peter Münch. Harmonisieren – dann Auditieren und Zertifizieren 〔J〕. RDV 2003,223.
  {34} Wolff/Brink. Beck'scher Online-Kommentar Datenschutzrecht BDSG 〔M〕.18. Aufl.,§ 38 Rn.5.
  {35} Ferdinand Kopp. Tendenzen der Harmonisieung des Datenschutzrechts in Europa 〔J〕. DuD 1995,204.
  {36} Spiros Simitis. Die EU-Datenschutzrichtlinie - Stillstand oder Anreiz?〔J〕. NJW 1997,281; Johann Bizer, Unabh?ngige Datenschutzkontrolle 〔J〕. DuD 1997,481.
  {37} Ruth Gavison. Privacy and the Limits of the Law 〔J〕.89 YALE L. J.421,1980.
  {38} Helen Nissenbaum. Accountability in a Computerized Society 〔J〕.2 Science and Engineering Ethics 25,1996.
©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
本篇【法宝引证码CLI.A.1263039      关注法宝动态:  

法宝联想
【相似文献】
【作者其他文献】

热门视频更多