首页作文素材好词好句历史典故写作技巧考场素材单元作文英语作文小升初作文名人故事时事论据 名言警句范文大全精美散文
小学作文
初中作文
高中作文
作文体裁

刑法中的创新责任:在严格责任、过失与容许风险之间*

时间:2023-02-17 15:20:10 来源:爱作文网  爱作文网手机站

[瑞士]比扬·法塔赫-穆加达姆 著 唐志威* 译

“在这个‘风险社会’中,刑法和刑事政策陷入了危机……”(1)Prittwitz, Strafrecht und Risiko, 1993, S.29.普里特维茨(Cornelius Prittwitz)1993年所著的经典著作《刑法与风险(Strafrecht und Risiko)》在一开始就提出了这样的论断。(2)参见几乎同时出版的博士论文Hilgendorf, Strafrechtliche Produzentenhaftung, 1993,以及1991年出版的教授资格论文Herzog, Gesellschaftliche Unsicherheit und strafrechtliche Daseinsvorsorge, 1991。同年,巴塞尔(德语区)刑法学教师大会则以“通过刑法手段保障未来(Zukunftssicherung mit den Mitteln des Strafrechts)”为题展开讨论。(3)参见 ZStW 105(1993), S.679中的论文,尤其是斯特拉腾威特(Günter Stratenwerth)影响深远的导言报告[ZStW 105(1993), S.679],以及会议综述[ZStW 105(1993), S.803]。26年前,(人们)关注通过刑法抵御风险的社会背景是核能与基因科技对环境与人类所造成的现代重大风险。(4)Ulrich Beck, Risikogesellschaft, 1986.今天,相应的社会背景则是信息技术与生物技术的发展,社会观察家将其称作“第四次媒体纪元”“第四次工业革命”或“第二次机械时代”。(5)Baecker, 4.0 oder Die Lücke die der Rechner l?sst, 2018, S.10;
从经济学的视角 Schwab, Die Vierte Industrielle Revolution, 2016;
Brynjolfsson/McAfee, The Second Machine Age, 2016。Nassehi, Muster, 2019, S.12,文章采用了不同的方法,从社会理论的角度探讨数字化为哪些(旧的)社会问题提供了解决方案。该作者认为,相较于发现数据中的模型,数字观察(在此与实证的社会研究一道)并不太关心具体的个人(a.a.O., S.58 f.)。因此,社会学和数字化有着相同的参照问题,即通过发现社会规律的方式来降低复杂性(a.a.O., S.28)。由此给刑法学研究带来的挑战,特别是对过失教义学的挑战是根本性的,因而有必要重新审视技术创新的刑事责任问题。在此,本文主要从基础理论的视角出发,讨论技术变革与刑法变迁两者之间的关联,并借此来讨论(法律外的)社会创新与法律中的创新之间的相互作用这一经典法社会学命题,这一命题也成了当前跨学科法律研究的主题。(6)基础性的论述参见Hoffmann-Riem, Innovation und Recht-Recht und Innovation, 2016; 关于法社会学对跨学科法律研究的开放,参见Baer, Rechtssoziologie, 3.Aufl., 2017, S.51 ff.;
Rosenstock/Singelnstein/Boulanger, in: Boulanger/Rosenstock/Singelnstein(Hrsg.), Interdisziplin?re Rechtsforschung, 2019, S.3 ff.,以及Raiser, Grundlagen der Rechtssoziologie, 6.Aufl., 2013, S.4。

刑法中的过失概念尤其也参考了技术创新中的风险。(7)对此还可参见苏珊娜·贝克(Susanne Beck)在本期杂志中的论文,ZStW 131(2019), S.967。这一概念仿佛是刑法用来观察技术创新中风险质量变化的透镜。而普里特维茨所称的“风险教义学(Risikodogamtik)”(8)Prittwitz, Strafrecht und Risiko, 1993, S.262 ff.则成了现代社会在刑法中的体现,根据社会学家罗萨(Hartmut Rosa)的解读,现代社会只能形成动态的稳定,并“系统性地”依赖于“增长、创新的密集化与加速”。(9)Rosa, Resonanz, 2016, S.673.在“加速的风险社会(beschleunigte Risikogesellschaft)”(此概念可从乌尔里希·贝克与罗萨的时代诊断中总结得出(10)Ulrich Beck, Risikogesellschaft, 1986; Rosa, Beschleunigung, 2005.)背景下,法体系也只有在其自身有能力不断重新调整并适应创新风险时才能够稳定下来。(11)Rosa, Resonanz, 2016, S.685; 还可参见Baecker, 4.0 oder Die Lücke die der Rechner l?sst, 2018, S.186 ff.。本文将通过“革新性技术(transformative Technologie)”的法社会学概念来把握新技术对法律造成的创新压力(文章第二部分)。革新性技术的典型应用案例包含了下文中的数字化以及本文着重讨论的所谓人工智能(KI)领域(文章第三部分)。在最后的第四部分,本文还将讨论数字化对刑法中的风险教义学可能产生的具体影响。

风险教义学正在经历一场复兴,因为信息技术正开始发挥其变革的潜力。根据本文提倡使用的法社会学概念,革新性技术的特征在于,它不仅具有颠覆性的(disruptiv)效果,而且同时还能够改变技术应用的伦理与法律框架。(12)参见Nuffield Council on Bioethics, Emerging Biotechnologies, London 2012, S.40 ff., abrufbar unter: http://nuffieldbioethics.org/wp-content/uploads/2014/07/Emerging_biotechnologies_full_report_web_0.pdf(2019年9月13日访问),以及此前Fateh-Moghadam, BJM 2018, S.205, 209 ff.。与之相区别的、广泛应用于经济学中的“颠覆(Disruption)”概念则针对一项技术的市场替代潜力,因此,“颠覆”概念涉及的是互相存在竞争的不同技术之间的关系。数字技术具备颠覆性影响的一个简单例证是,作为数字音乐光学存储介质的光盘广泛取代了黑胶唱片。自2000年以来,MP3技术以及在线音乐流媒体服务对音乐的传播又取代了光盘。在文献中,现代信息技术产生颠覆性影响的原因已有详细论述,现总结如下:

1.几十年来,计算机的性能呈指数级增长,这体现在所谓的摩尔定律(Mooresche Gesetz)中;
(13)简单来说,此后计算机的性能每18个月就翻一番,而元件成本则保持不变或降低,对此可详见Brynjolfsson/McAfee, The Second Machine Age, 2016.Anders setzt Nassehi, Muster, 2019, S.53 ff.。

2.获取以及处理大量数据的能力使得通过应用信息技术方法了解这些数据的模型并从中获得新的认识成为可能(大数据);
(14)有关使用上并不统一的“大数据”概念的启发性论述,参见Deutscher Ethikrat(Hrsg.), Big Data und Gesundheit-Datensouver?nit?t als informationelle Freiheitsgestaltung, 2018, S.54, abrufbar unter: https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-big-data-und-gesundheit.pdf(2019年9月13日访问)。德国伦理委员会完整的初步定义是:“大数据是指对大量数据的处理,其目标是识别模型并从中获得新的认识,鉴于数据的丰富性和多样性以及收集、分析与重新关联的速度,它采用了创新、不断进步的信息技术方法来实现这一目标”。

3.在所谓的物联网(Internet of Things)中,信息技术系统逐渐网络化;
(15)对此参见Zech, ZfPW 2019, S.198, 203。

4.诸如机器人、自动驾驶汽车和软件代理等由信息技术操控的系统在自动化与自主化方面的成功。(16)Gless/Janal, JR 2016, S.561; Wohlers, BJM 2016, S.113;此外还可参见Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016与Hilgendorf(Hrsg.), Robotik im Kontext von Recht und Moral,2014以及Susanne Beck(Hrsg.), Jenseits von Mensch und Maschine, 2012中的论文。例如在图像识别领域以及掌握围棋这样的复杂战略游戏等方面,人工智能所取得的惊人进步来源于由基于模型的人工智能向基于功能的、归纳式机器学习方法的转变,后者可以体现在所谓的神经网络这种形式中。(17)有关人工智能研究中基于模型的方法与基于功能的方法,富有启发性的论述参见Darwiche, Communications of the ACM 61(2018), S.56。作者在此感谢瑞士巴塞尔大学马尔特·黑尔默特(Malte Helmert)先生对这项计算机科学中重要区分的提示。

综观上述(技术领域的)发展可以发现,由数据驱动的信息技术已经发展成了一种“(迪尔凯姆所称的)社会事实(sozialen Tatbestand)”,渗透到社会生活领域的方方面面。(18)Durkheim, Regeln der soziologischen Methode, 1980, S.114.援引社会事实这一经典社会学概念是为了强调社会数字化转型的集体性特征和结构性特征。如果我们今天还将数字技术的产物作为第二自然(zweite Natur)(19)“第二自然(Zweite Natur)”的概念来自于技术哲学的讨论。根据该讨论,人类最初面对的是野生自然。起初,人类并不理解这一点,并认为野生自然是一种威胁。此后,人类发明了工具与科学,用以理解自然(自然科学)和掌握自然(世界的祛魅)。在此种发展的最后阶段,人类创造了具备人工智能的机器,但是人类自己却不再能理解这些机器(黑匣子算法)。并且,人类有可能失去对这些机器的控制(技术对世界的复魅)。就此而言,由人类创造的机器便成为了与人类相对的第二自然。这也可以体现在计算机科学研究者的建议中,他们提出,我们应该像研究动物和人类的行为一样,研究机器的行为(Machine Behaviour)。——译者注对待,那么这种新兴的现实就不能再被简化为个体驱动的人的行为的总和。作为一种行为、思考与感知的一般方式,它“具有独立于个体表达的独立生命”(20)Durkheim, Regeln der soziologischen Methode, 1980, S.114.,数字化从外部影响个人,且这样的影响具有强制性的特征。在数亿投资的支持下,自动化(机器人)、自主化(人工智能)与网络化(物联网/大数据)三者的结合正逐渐将我们与世界的接触转变为“线上生活(Onlife)”(21)Hildebrandt, Smart Technologies and the End(s)of Law, Cheltenham/Northampton 2015, S.41.模式。在此模式中,数字线下生活和模拟现实不可分割地交织在一起。(22)Hildebrandt, Smart Technologies and the End(s)of Law, Cheltenham/Northampton 2015, S.41 f.这同时也意味着,个人不再能自我决定他想要过线上生活还是线下的生活。主动逃离数字化转型也变得越来越困难。如果有人像德国绿党联邦主席哈贝克(Robert Habeck)那样,认为社交媒体对其本人的政治传播风格存在负面影响,而(部分地)删除其社交账号(23)哈贝克在他的博客(Blog)上宣布退出推特(Twitter)和脸书(Facebook),因此同样也是以数字为媒介,abrufbar unter: https://www.robert-habeck.de/texte/blog/bye-byetwitter-und-facebook/(2019年10月4日访问);
有关社交媒体的“反社会”影响,参见Lanier, Zehn Gründe, warum Du deine Social Media Accounts sofort l?schen musst, 2018,然而作者仍然还是提出了数字化的替代战略方案。,那么,这虽然展现了他非凡的自我反思能力,但他也因此更多地还是通过他与数字媒体之间的关系定义了自己。即使对一个以最低限度融入社会的人而言,完全的数字禁欲也已经不再可能。(24)因此,通过算法操控的、不透明的电子访问屏障而将特定人排除在数字世界之外的状况也说明了数字时代极端的危机和异化体验,经文学处理的叙述可参见Sch?nthaler, Der Weg aller Wellen, 2019。

由此,数字信息技术在性能提升上的量变以及全覆盖的社会普及程度已经到达了一个关键点,在这个关键点上,数字信息技术质变成为一种革新性技术。根据本文提倡的法社会学解读方法,革新概念(Transformationsbegriff)并非针对多个相互存在竞争的技术之间的关系,而是针对技术对社会规范载体(即伦理和法律)的影响这一更具前提性的假设。由此而推导出的事实、科学和技术发展与特定规范变迁之间的联系与法哲学和道德哲学中盛行的观点处在一种紧张关系之中,即人们不允许(直接)从实然(Sein)中推导出应然(Sollen)。(25)该批判可追溯到Hume, A Treatise of Human Nature, Oxford 1955和Moore, Principia Ethica, 1996;
实然—应然谬误与所谓的“自然主义谬误”密切相关,根据“自然主义谬误”的观点,自然界的事实属性会被自动评价为“好”。事实上,“数字化”本身也并不包含规范性,它并非直接迫使特定的伦理或法律后果发生。因此,伴随数字化而来的法律变革不能从技术直接因果性地调控或决定法律内容的角度来把握。然而,无论是从法律史的角度,还是从当前的发展来看,都表明存在特定的机制能够将技术与法律的共同演进(Co-Evolution)联系起来。下文将提出四种能够解释刑法数字革新的方案,这些方案并不会使刑法中概念建构的自主性遭到质疑。

(一)重塑人的自我画像

首先,我们从思想史中可以得知,科学与技术革命根本性地改变了人自己的形象以及人与自然、技术之间的关系。(26)对此可参见Fateh-Moghadam, BJM 2018, S.205, 210 f.。就此而言,哥白尼从地心说到日心说的世界观转变被认为是一种划时代的(avant la lettre)革新性科学认识。在《技术思想史》一书中,布卢门伯格(Hans Blumenberg)描述了“人居于其世界中心的自我定位”如何成为现代自我决定的个体构造的事实前提。(27)Blumenberg, Schriften zur Technik, 2015, S.69.在这种解读方式中,技术被当作人“决心成为无限制力量的主体之现象”(28)Blumenberg, Schriften zur Technik, 2015, S.78.的“自由精神活动的纯粹构造”(29)Blumenberg, Schriften zur Technik, 2015, S.78.。值得注意的是,由人类创造的“算法的邪恶力量”现在正变得独立,并成为“第二自然”与人类形成对立。(30)Harari, Homo Deus, 2017, S.97 ff.; Nordmann, Technikphilosophie zur Einführung, 2.Aufl.2015, S.84 ff.,文中以“患癌鼠(Krebsmaus)”为例;
还可参见Blumenberg, Schriften zur Technik, S.78,文中已经表明,在不断推进的历史进程中,技术产品正变得独立,并成为“第二自然”而与人类形成对立,而“第二自然”似乎并不是为人类而创造的;
Bridle, New Dark Age, 2019, S.58:“我们越痴迷于试图计算这个世界,这个世界就越是显得复杂和难以理解”。

这改变了人类解释其与自然和技术关系的参考框架,即所谓架构(Framing)。根据戈夫曼(Erving Goffman)的解读,框架或架构指的是解释所发生事件的启发式方法,我们通过这些架构来建立我们的日常经验。(31)Goffman, Rahmen-Analyse, 2018, S.19 und 31 ff.当我们观察某个事件时,我们(通常会无意识地)要么将其归类为自然现象(Naturerscheinung),要么将其归类为人类目的导向行为的结果。用戈夫曼的话来说,在自然的架构内解释一个事件意味着(这里也体现了刑法上的相关性),“人们从头到尾完全将这些事件归结为‘自然’的原因”。人们没有将意志(Willen)和目的(Absicht)视为作品(结果)的原因,也没有看到实施行为的人在不断地对结果产生影响”。(32)Goffman, Rahmen-Analyse, 2018, S.31.

上述自然事件的负面后果会以“意外事件”的形式出现,相反,对“不法”的认定只在社会的解释框架中才有意义。(33)有关意外事件与不法的二元区分可参见Prittwitz, Strafrecht und Risiko, 1993, S.378 ff.。在我们生活的世界中,越来越多的人正在接触自我学习机器人和软件代理,这恰恰正在破坏上述意外事件与不法的二元区分,而自我学习机器人和软件代理的社会、道德和法律地位也仍然存在争议。人、动物与机器之间的界限变得模糊的典型体现是,23位国际领先的计算机学者最近共同发表了成立名为“机器行为研究(Machine Behaviour)”这一新学科的倡议。(34)Rahwan et al., nature 568(2019), S.477.迄今为止仅以人类与动物为对象的行为研究必须扩展到机器领域,因为人们不再有能力仅仅通过机器的内部蓝图就理解复杂的(学习型)人工智能代理;
相反,只有在机器与环境的互动中,才能理解这种人工智能代理。(35)Rahwan et al., nature 568(2019), S.477, 480.有关机器行为的讨论令人印象深刻,并佐证了现代人工智能技术具备模糊与革新那些看似根深蒂固的社会观念的潜力。(36)另外还可参见以下论文集中的文章:Brockman(Hrsg.), Possible Minds, New York 2019。

(二)作为法(律)媒介的技术(法律科技)

技术发展影响刑法的第二种可能性是改变法(律)的媒介。法的媒介理论(Medientheorie des Rechts)展示了,通过为法律提供新的存储、归档与传播途径,口语、写作与印刷的发明都对法(律)的形成产生了影响。(37)Vesting, Die Medien des Rechts: Schrift, 2011; ders., Die Medien des Rechts: Sprache, 2011; ders., Die Medien des Rechts: Buchdruck, 2013; ders., Die Medien des Rechts: Computernetzwerke, 2015; Vismann, Medien der Rechtsprechung, 2011; Baecker, 4.0 oder Die Lücke die der Rechner l?sst, 2018, S.10.毫无疑问,计算机网络与信息技术带来的第四次媒体革命已经对刑法与刑事诉讼法的实践造成了影响。这便涉及了不断壮大的法律科技(Legal Technology)领域,该领域不仅涉及相对日常的刑事辩护人办公软件与《欧洲电子证据条例》,它还涉及刑事司法语境下有争议的、依托算法的累犯预测的应用,例如美国的COMPAS(用于替代制裁的罪犯矫正管理分析;
全称为Correctional offender Management Profiling for Alternative Sanctions)等软件解决方案。(38)有关法律科技现状的概览,参见Fries, RW 9(2018), S.414;
有关公共行政自动化,参见Braun Binder, SJZ 115(2019), S.567;
对《欧洲电子证据条例》的批判,参见Burchard, ZRP 2019, S.164;
有关用于替代制裁的罪犯矫正管理分析(COMPAS)软件,参见ders., Künstliche Intelligenz als Ende des Strafrechts?, S.15, abrufbar unter: https://www.normativeorders.net/de/publikationen/working-paper(2019年9月13日访问),以及Martini, Blackbox Algorithmus-Grundfragen einer Regulierung Künstlicher Intelligenz, 2019, S.55 ff.。由此产生的规范问题则需要依据实证进行个案分析,这在本文中无法进一步探讨。应用法律科技完成传统法学任务的一个首要风险并非来自让技术适应法学方法,而是来自让法学方法适应技术的运行方式。换言之,这引发了法学方法“计算机化”(39)Bridle, New Dark Age, 2019, S.27 ff.的危险。与传统法律论证在质的意义上围绕某一裁判的优势理由展开不同,计算机辅助的裁判程序则取决于裁判参数的可量化性。例如,公平(Billigkeit)的正义论角度可能恰好要求在个案中背离严格的规则适用,这一点则很难通过计算机程序来得以体现。(40)该概念可追溯到Aristoteles, Nikomachische Ethik, 1956, Buch V Kap.10 Rdn.1137b,以及亚里士多德有关公正(epieikeia)的阐述;
对此参见Bien, Billigkeit, in: Ritter(Hrsg.), Historisches W?rterbuch der Philosophie, Bd.1, 1971, S.940。

(三)作为法(律)的技术:“规范上的技术操控”?

数据化革新的第三种模式体现在技术自己承担了法(律)的行为控制功能:技术替代并取代了法律[代码即法律(code is law)]。(41)基础的论述参见Lessig, Code: Version 2.0, New York 2006, S.1 ff.:“代码即法律(code is law)”;
ders., a.a.O., S.81 ff.:“通过代码规制(regulation by code)”;
对此参见Hildebrandt, Smart Technologies and the End(s)of Law, Cheltenham/Northampton 2015, S.165,以及Lobe, Speichern und Strafen, 2019, S.41 ff.。如果法律上不能成功地涵盖“以算法为手段的行为控制(Verhaltenssteuerung durch Algorithmen)”(42)Hoffmann-Riem, A?R 142(2017), S.1.,那么,这就可能引发社会控制结构的根本改变。法规范之所以具有效力,正是因为法规范可以被违反(43)Luhmann, Rechtssoziologie, 4.Aufl.2008, S.43.,就此而言,法规范总是为世界发展进程保留了其他可能性。(44)M?llers, Die M?glichkeit der Normen, 2018, S.159.相反,规范上的“技术操控(Technosteuerung)”(45)Hoffmann-Riem, A?R 142(2017), S.1, 11 ff.则在事实上排除了特定的行为方式:如果乘客没有系上安全带,智能汽车就不会启动出发,而且它的速度也不会超过相应允许的最高速度。这种以技术为中介的不可能性结构(impossibility structures),不仅使违反法律在纯粹物理的意义上变得不可能(46)对此参见Rademacher, JZ 2019, S.702(文中还附有进一步的文献索引)。,还使得违法行为最多只可能出现在与破坏计算机行为相关的场合。由于技术设计的强制性,通过技术设计对自由事实上的限制,比通过法规范制定行为预期还要更进一步。(47)Brownsword, in: Brownsword/Scotford/Yeung(Hrsg.), The Oxford Handbook of Law, Regulation and Technology, Oxford 2017, S.42.通过在事实上禁止偏差行为,技术的不可能性结构还同时避免了规范违反(行为)在特定条件下引发法律革命性调整的可能性。卢曼(Luhmann)曾经在此语境下提出了“有用的违法(brauchbarer Illegalit?t)”(48)Luhmann, Funktionen und Folgen formaler Organisation, 1964, S.304 ff.;
对此已经可参见Hoffmann-Riem, A?R 142(2017), S.1, 34。概念。正在日益逼近的全面通过技术操控行为这一潜在的极权主义特征还产生了宪法上有关“违反法(律)的权利(Recht zum Rechtsversto?)”是否存在的问题。(49)Rademacher, JZ 2019, S.702, 707.这种权利不能被理解为违反刑法制度且不遭受制裁的自由,这一点在逻辑上并不存在矛盾。相反,它最多只能是一种继续拥有遵守或违反法规范的事实可能性的权利。用自由哲学的语言表达,这种享有违反规范可能性的权利同时也说明,个人拥有“决定站在法(律)这一边(sich für das Recht zu entscheiden)”的自由。(50)Rostalski, GA 2019, S.481, 485.然而,正统黑格尔学派的观点,即法律命令与禁令的正确性必然来自人的理性天赋,这并不十分具有说服力。这也是为什么违反规范在概念上不能成为具备理性天赋的人真正自由表达的原因。与德国观念论不相容的“不理性的自由(Freiheit zur Unvernunft)”以及在此基础上违反法律的自由(Freiheit zum Rechtsversto?)是现代、基本法对人类自决权理解的成就,而必须予以捍卫,对此参见 Fateh-Moghadam, BJM 2018, S.205, 215 ff.。正确地说,这也不是一种要求(法的)执行(存在)缺陷的权利(Recht auf Vollzugsdefizit)(51)认同该观点的有Rademacher, JZ 2019, S.702, 708。,因为事实上的规范遵守(Normbefolgung)与规范执行(Normvollzug)并非是一回事。刑事法律的执行总是预计到了犯罪行为会发生,它出现在追诉与惩罚违反规范的场合,而不会出现在规范受众遵守刑法规范的场合。即使违反刑法禁令的行为后来被制裁,且没有留下漏洞,(违反规范的)偏差行为也仍然可能发生。(52)有关无死角犯罪预防与无死角犯罪惩治的区分,还可参见Rostalski, GA 2019, S.481, 483 ff.und 485 ff.。而技术的不可能性结构的激进之处体现在,它在事实上消灭了这种可能性,而不是在无漏洞的规范执行过程中。从刑法的角度来看,规范上的技术控制并不是基于法(律)规范,而是基于(通常由私人控制的)计算机代码,严格来说,这已经不再是刑法风险教义学的表现形式,相反,这其实埋葬了刑法风险教义学。如果人们愿意这样的话:那么,这也是数字化预防型社会对自由派倡议废除刑法的讽刺回答。(53)Lüderssen, Abschaffen des Strafrechts?, 1995.

(四)“规范的现实领域”之变迁

最后,法律数字化变革的第四种构造涉及“规范的现实领域(Realbereich der Norm)”的变迁。(54)Hoffmann-Riem, Innovation und Recht-Recht und Innovation, 2016, S.113.由霍夫曼-里姆(Hoffmann-Riem)提出的规范的现实领域概念认为,法规范不仅指向一个语言或文本领域,而且同时与一个特定的现实片段相关联(55)Hoffmann-Riem, Innovation und Recht-Recht und Innovation, 2016, S.113 ff.:“这一片段涉及规范中所提及的技术、自然科学、社会、政治、经济、文化、生活等‘现实’基本构造。”(56)Hoffmann-Riem, Innovation und Recht-Recht und Innovation, 2016, S.113.现实领域是规范的结构性组成部分,因为正是规范的现实领域才使得对规范的合理解释成为可能。(57)Hoffmann-Riem, Innovation und Recht-Recht und Innovation, 2016, S.114.解释法规范意味着,另外还要追问,应当通过解释处理哪些现实生活中的问题。人们只有考虑到立法者计划将哪些生活事实作为涵摄在规范中的“一般情形(Normalfall)”(58)对此参见Haft, Einführung in das juristische Lernen, 5.Aufl.1991, S.113 ff.。时,才能合理地理解规范。因此,正如人们从诠释学的视角所提出的那样,至少在规范表述上能体现立法者“前见(Vorverst?ndnisse)”的场合,对规范的解释必须考虑到这一“前见”。(59)有关作为理解的普遍前提的“偏见”复原(Rehabilitierung des,,Vorurteils“),可参见Gadamer, Wahrheit und Methode, 1990, S.281 ff.。这里的立法者前见不仅源自规范性的评价,而且恰恰同时源自一种对社会现实的想象,而这种想象构成了规制的对象。由此,技术创新不仅能改变与法规范相关联的现实技术条件,还同时能改变依靠解释来获得的规范内容本身。此外,在刑法中适用禁止类推(原则)的前提下,由于新的技术方法不再能涵摄在法定构成要件的文义中,技术创新还可能造成某些违背期待的结果或行为不再属于禁止规范的适用领域内。在生物医学刑法领域,人们已经很好地认识到这一(发展)历程。(60)有关自然科学创新的语境下,刑法禁止类推对于《德国胚胎保护法》解释的意义,可参见Günther, in: Embryonenschutzgesetz, 2014, Vor.§ 1 Rdn.10 ff.。在这些情形中,从规范的角度来看,技术创新创造了规制漏洞,或者说处罚漏洞,这些漏洞则可以为立法改革提供契机。

在这个意义上,这也体现了(上文)第一种数字信息与计算机技术在刑法中的革新性影响。基于严格的法律约束,德国的刑法立法者很早就被迫制定新的特殊刑法构成要件来回应以计算机为媒介的犯罪现象。例如,早在1986年,随着第二部《德国打击经济犯罪法》(2.WiKG)(61)BGBl.I(1986), S.721.的出台,计算机诈骗罪(《德国刑法典》第263条a)和窥探数据罪(《德国刑法典》第202条a)就已经被纳入到《德国刑法典》中。(62)因此,第二部《德国打击经济犯罪法》(2.WiKG)也被认为是信息和通讯技术刑法诞生的标志,Kochheim, Cybercrime und Strafrecht in der Informations-und Kommunikationstechnik, 2.Aufl.2018, S.133(书中也有关于该领域立法后续发展的内容)。而在1977年,齐白(Ulrich Sieber)有关《计算机犯罪与刑法》的开创之作就已出版。(63)Sieber, Computerkriminalit?t und Strafrecht, 1977.人们似乎希望以创建一个新的刑法特殊领域(即计算机和网络刑法(64)有关刑法领域的整体概览,参见Kochheim, Cybercrime und Strafrecht in der Informations-und Kommunikationstechnik, 2.Aufl.2018。)的方式来对新技术加以控制。从今天的角度来看,那种认为数字技术所带来的刑法问题可以留给刑法学研究中对信息科学感兴趣的“计算机呆子(Computernerds)”,而刑法的传统领域不受影响的诱人观点则显得很幼稚。社会的数字化为整个刑法科学都带来了新的挑战。人们无论是对刑法总论、经济或医疗刑法、国际刑法还是对刑事诉讼法感兴趣,都将面临数字化所带来的后续问题。为了更明确这一点,犯罪学、法社会学、法哲学和法律史(这些领域)无论如何都属于对数字化进行法学反思的先驱。(65)仅参见以下论文集中的文章:Hilgendorf(Hrsg.), Robotik im Kontext von Recht und Moral, 2014; Gruber/Bung/Ziemann(Hrsg.), Autonome Automaten, 2015; Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016。因此,处在时代前沿的刑法学必须从以下两点意义去理解刑法的数字化(66)有关这种对社会数字化的双重视角可参见Baecker, 4.0 oder Die Lücke die der Rechner l?sst, 2018, S.9。:一方面,针对社会生活有关方面数字化所带来的后续问题积极地进行刑法上的观察,这种观察并不限于传统的计算机和网络犯罪领域(刑法作为整个生活领域数字化的积极规制);
另一方面,在技术发展的意义上,刑法自身通过技术发展而得到革新(刑法作为数字化的消极对象)。由此带来的任务不能只托付给(公认)不断扩张且日益重要的计算机和网络刑法这一刑法特殊领域。相反,这使得我们更有必要以一种基础学科为导向、跨学科的方式来反思刑法的数字化进程,这样的反思虽然从具体问题出发,但同时又将具体问题抽象化,以此为技术与刑法共同演进(Co-Evolutionn von Technik und Recht)的法学叙事提供全面的理论工具。(67)相似的思考方向还有Burchard, Künstliche Intelligenz als Ende des Strafrechts?, insb.S.24 ff., abrufbar unter: https://www.normativeorders.net/de/publikationen/working-paper(2019年9月13日访问)。

数字化的影响半径日益扩大,至少反映在诸如过失这样的传统刑法归责类型中。前文提及的“规范的现实领域”变迁的法社会学概念正好可以用来恰当地解释数字化对刑法过失教义学的影响。数字科技对现实生活的影响至少体现在数字技术给法益带来了新型的风险,而这也引发了相应的刑法上注意义务的问题。套用刑法风险教义学的术语,这意味着,即使不设立刑法严格责任(Strict liability-Haftung)这样的创新(责任)形式,人工智能系统前所未有的风险性质(即机器学习场合的自主性风险)也可能会引发刑法上的过失犯解释与适用的变迁。这里所说的人工智能风险教义学的动向则构成了本文最后一部分的主题。

人工智能系统的特殊风险属性来自自主性风险、(人机)复合风险以及联网风险。(68)Teubner, AcP 218(2018), S.155, 164.复合风险(Verbundrisiko)涉及人与机器在所谓社会技术系统(sozio-technische Systemen)中的互动。(69)有关“社会技术系统(sozio-technisches System)”的概念,参见Ropohl, Allgemeine Technologie, 3.Aufl.2009, S.58 f.;
有关因此而引发的刑法问题,参见Simmler, in: Bendel(Hrsg.), Handbuch Maschinenethik, 2019, S.8 ff.;
在医疗法上的案例,参见Steil et al., Methods Inf Med 58(2019), S.14, 19 ff.。联网风险源于多个电脑系统同时参与同一损害事件。(70)Zech, ZfPW 2019, 198, 205.笔者将在下文详细展开讨论的自主性风险则涉及自我学习系统“在无用户干预的情况下,自发地改变自己的行为,以作为对外界印象的回应”(71)Zech, ZfPW 2019, 198, 200;
有关机器学习的技术基础,可参见Norvig, Artificial Intelligence, 3.Aufl., Boston 2016, S.693 ff.。,从而自主反应的能力。由于自我学习系统不依靠用户输入,而仅仅依靠“自我感知”(72)Zech, ZfPW 2019, 198, 200.,从而能够自发地“在不确定的状况下作出决策”(73)Teubner, AcP 218(2018), S.155, 174.。自我学习系统不断增长的自主性导致了行为可预见性方面的局限,而且提出了以下问题,即从“可预见的不可预见性(vorhersehbare Unvorhersehbarkeit)”(74)对此可参见Gless/Weigend, ZStW 126(2014), S.561, 581 f.。中能够得出制造者、编程者与运营者的哪些特殊注意义务。由于人工智能系统的决策根据在科学上的可解释性存在局限,这也导致了义务违反性关联方面的证明问题。在此背景下,许多学者认为,刑法上面临着责任漏洞(responsibility gap)的危险,这也对刑法上的罪责原则(Schuldgrundatz)造成了压力。(75)Matthias, Ethics and Information Technology 6(2004), S.175; Gless/Weigend, ZStW 126(2014), S.561, 582(“责任扩散”); Gless, in: Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016, S.231; Hilgendorf, in: Hornung(Hrsg.), Rechtsfragen der Industrie 4.0, 2018, S.120 ff.; ders., in: Festschrift für Fischer, 2018, S.110; Simmler, in: Bendel(Hrsg.), Handbuch Maschinenethik, 2019, S.453。因此,人们一方面讨论在制造者与运营者的责任方面突破罪责责任,即引入严格责任(strict liability)。(76)Simmler, Normstabilisierung und Schuldvorwurf, 2018; Simmler/Markwalder, ZStW 129(2017), S.20, 43.另一方面的讨论则涉及将人的责任能力扩张到机器人以及软件代理(Software-Agenten),以此实现将责任从人转移到技术上的效果。(77)与此相关的早期文献可参见Susanne Beck, in: Japanisch-Deutsches Zentrum(Hrsg.), Mensch-Roboter-Interaktionen aus interkultureller Perspektive, 2012, S.133 ff.; Hilgendorf, in: Susanne Beck(Hrsg.), Jenseits von Mensch und Maschine, 2012, S.119; Gless/Weigend, ZStW 126(2014), S.561, 570 ff.; Simmler/Markwalder, ZStW 129(2017), S.20, 43; Seher, in: Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016, S.45; Erhardt/Mona, a.a.O., S.61; Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019。

(一)责任向技术转移(机器人刑法)?

在我看来,有关“智能”软件代理可能存在的刑事责任的讨论正朝着一个错误的方向发展。(78)同上注。对此,关键的原因并不在于将(刑)法上的答责能力与作为人的特殊资质、内在的心理状态或自由意志、自主性在哲学上严苛的理解相联系。(79)有关该反对意见详细的论述可参见Gless/Weigend, ZStW 126(2014), S.561, 573 ff.。可答责的法人就是一种社会的、特殊法律上归责程序的结果,这样的归责程序遵循的是一种功能上的逻辑。(80)基础性的研究参见Luhmann, SozW 42(1991), S.166;
对刑法学的影响参见Jakobs, Strafrecht Allgemeiner Teil, 2.Aufl.1991, Abschn.17 Rdn.22;
Simmler/Markwalder, ZStW 129(2017), S.20, 41 f.;
Simmler(Anm.76), S.258 ff.。如果只是将“人格属性(Personalit?t)”视作罪责谴责的根本要素,那么就不必要将其限定在人类主体中。(81)Simmler, Normstabilisierung und Schuldvorwurf, 2018, S.258.相反,法律上的归责才将人构造成为法律责任归属的可能对象。(82)在此意义上的早期还有受马克思(Karl Marx)影响的 Menke, Kritik der Rechte, 2015, S.17,根据该文,“自主性主体存在是因为存在权利的现代形式”,而不是因为存在自主性主体,才存在权利的现代形式。另一方面,这也并不意味着作为可答责法人的地位归属可以肆意进行;
相反,无论是支持还是反对承认非人类主体法律上可答责性的观点都必须按照相关法律领域的功能逻辑标准来进行判断。在此背景下,正如托伊布纳(Gunther Teubner)所提议的那样,或许有充分的理由能够支持在民法中引入软件代理的部分法律能力。(83)Teubner, AcP 218(2018), S.155.这对民法而言意义在于,正如有关事务辅助人(Verrichtungsgehilfe)的条文(《德国民法典》第831条)承认的那样,应当将软件代理的有责行为归责于人工智能系统的人类运营者。(84)Teubner, AcP 218(2018), S.155.但是,在刑法中却不能照搬这样的构造。在刑法中,承认机器人的答责能力恰恰不适合从机器人背后的人类主体入手,因为刑法并不允许对单纯的他人过错承担责任。相反,机器人作为“自我答责的第三人介入(eigenverantwortliche Dazwischentreten)”则适用于为机器背后的人类行为人开脱责任。(85)Gless/Weigend, ZStW 126(2014), S.561, 588.

但是,从刑法的角度来看,即使机器直接承担刑法上的责任,这似乎也是功能不全的,因为,将处罚人工智能系统理解为对违反旨在保护法益的举止规范的回应(以巩固规范)是没有意义的。(86)对此,有说服力的论述参见Simmler/Markwalder, ZStW 129(2017), S.20, 41,当然,文中不希望在未来排除机器人的可罚性,以及详细的论述参见Simmler, Normstabilisierung und Schuldvorwurf, 2018, S.267 ff.;
结论上相同的还有Gless/Weigend, ZStW 126(2014), S.561, 588 f.,文章作者指出,机器人缺乏作为“道德主体”的特性,即有能力自己“形成意志”;
针对机器人汽车(Roboterautos)还可参见Wohlers, BJM 2016, S.113, 123。如果按照沃勒斯(Wolfgang Wohlers)所言,(在应然法上,)对机器人汽车提出个人罪责谴责是否合理这个问题,主要取决于(汽车机器人)的“自主程度(Grad an Autonomie)”,那么便也有可能依此对未来形式的自我学习人工智能系统作出不同的判断。因为这是以人工智能系统具备满足或不满足规范期待的能力为前提的。即使是最现代的自我学习人工智能系统,也不能对其“举止”进行规范上的激励。它并不会在价值权衡得出“有利理由(gute Gründe)”之后作出决定;
相反,它在外部世界的行动必然基于以计算机为媒介、以模式识别为目标的数据评估,而这些数据要么来自第三方提供,要么是人工智能系统通过自己的观察而获得。虽然自动驾驶汽车可以通过编程避免与人类道路交通使用者发生碰撞,但是,它却不能“理解”禁止杀人或禁止身体伤害的规范意义。如果由于自动驾驶汽车的错误而导致了致人死亡的交通事故,(87)此处的案例可参见2018年自动驾驶的优步(Uber)汽车所造成的致死事故,NZZ v.19.3.2018, abrufbar unter: https://www.nzz.ch/panorama/selbstfahrendes-uber-auto-faehrt-frau-an-tot-ld.1367523(2019年9月13日访问)。那么这可能会使我们对技术能力的想象感到失望。此外,这只是一种认识上的期待(kognitive Erwartung),我们将在未来修正这种期待。只要我们同时还坚持这样的期待,即参与道路交通的自动驾驶汽车应该能够识别人类障碍物,并及时刹车,那么,这里(现在已经是规范上)的期待指向的便是那些负责对车辆进行设计、编程以及审批许可的人类。(88)有关认识性期待与规范性期待的区分,参见Luhmann, Rechtssoziologie, 4.Aufl.2008, S.40 ff.。

除此之外,机器人刑法会在刑事政策上出现功能失调,因为它可能会草率地为机器背后的人开脱责任。诚然,机器背后的行为人仍然有可能构成过失的同时犯(fahrl?ssige Nebent?terschaft)。然而,根据基于分工合作的过失犯教义学理论(Fahrl?ssigkeitsdogmatik für arbeitsteiliges Zusammenwirken),人们必须承认答责领域的可分性(Teilbarkeit der Verantwortungsbereiche)以及信赖原则的适用。(89)有关信赖原则一般性的论述,参见Sternberg-Lieben/Schuster, in: Sch?nke/Schr?der, StGB Kommentar, 30.Aufl.2019, § 15 Rdn.151。这会造成将人的责任转移到机器上的局面,从而掩盖了人类决策对于现代人工智能系统运作的核心性地位。(90)可信赖人工智能的伦理指导方针也强调了人类行为与人类监管的优先性,参见High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 2019, S.17, abrufbar unter: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai(2019年9月13日访问)。机器人刑法因此也就违背了刑法应有效保护、以防止不被容许的人工智能风险的利益。

根据上述结论,引入“机器人”刑法并不是刑事立法的明智选项,在我看来,即便在未来开发出所谓的“强人工智能(starke künstliche Intelligenz)”,本结论也仍然适用。(91)作者感谢卡斯滕(Karsten Gaede)在讨论中对“强人工智能”可能存在的特殊性的提示。对此详细参见Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019。“强人工智能”的概念使用并不统一。(92)有关概念还可参见Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019, S.19 ff.。它与“超级智能(Superintelligenz)”(93)Bostrom, Superintelligenz, 2018.以及“奇点(Singularit?t)”(94)Kurzweil, The Singularity is Near, London 2018.等概念存在竞合关系。实际上,“强人工智能”概念针对的是可设想的未来人工智能形式,该形式的人工智能解决问题的能力并不限于特定的应用领域(通用智能),它能够在没有用户输入的情况下自主地改进与发展(自主学习能力),并以这样的方式到达与人类同等的“智能水平”,并且将长期超越人类的“智能水平”。根据博斯特罗姆(Nick Bostrom)的观点,强人工智能或“超级智能”的决定性特征在于,它与人类相比获得了“战略上的优势(strategische Vorteil)”,因此不再受到人类控制。(95)Bostrom, Superintelligenz, 2018, S.115 ff.

如果按照这样的分析,那么,从规范的角度来看,“强人工智能”将首先导致一种更高层级且不可控的安全风险。由于机器人刑法总是过于滞后,所以机器人刑法似乎不适合对抗这种据称由(未来)可能的机械性超级智能所引发的关乎(人的)存在的风险。(96)还可参见Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019, S.67 ff.。特别是那些相信“超级智能”优于人类的场景是对未来的现实预测的人看来,通过针对机器的刑罚威慑来控制上述超级智能的想法似乎非常幼稚。为什么一个优于人类并具有战略优势的人工智能要受到人类制定的刑事法律、刑事追诉机构以及刑事司法的影响?相反,法律控制机制的目标应当是,从一开始就防止超级智能的出现与“释放(Freisetzung)”。(97)对此进行强调的还有Bostrom, Superintelligenz, 2018, S.184 ff.;
还可参见Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019, S.70 und 78。这是以预防原则(98)有关预防原则参见Calliess, in: Grunwald/Simonidis-Puschmann(Hrsg.), Handbuch Technikethik, S.390。为基础的技术行政法(Technikverwaltungsrecht)的传统任务,在必要情形下,也可以通过设置刑法危险犯的方式来配合技术行政法。(99)参见下文(二)严格责任。因此,在技术与刑法上控制“强人工智能”的受众对象,无论如何仍然还是在技术背后进行运作的人,而非技术本身。

最后,我想再简要谈谈以下论点,即只有当自我学习的人工智能系统发展到我们可以将其理解为与人类相类似的“道德主体”时,机器人刑法才变得必要且有意义。假设我们认为,以这种方式理解的“强人工智能”会发展出构建自身规范上和法律上价值观的能力,并且它们会将其“行为”建立在这些价值观之上。那么,事实上我们必须赋予这样一种实体具有辜负规范期待的能力,这样,刑法稳固规范的功能(die normstabilisierende Funktion)原则上才能有用武之地。在此,反对机器人刑法的理由基于实践层面:为什么被赋予理性自我决定能力的人工“超级智能”偏偏要臣服于“缺陷物种”人类所创造的现行刑法?对人类来说,决定性的问题可能是,文明开化的自主机器将赋予人类什么样的道德地位和法律地位。(100)有关人类道德性与机器道德性之间冲突的主题,参见McEwan, Maschinen wie ich, 2019,文章以娱乐性的方式呈现。

(二)严格责任:容许风险的刑法责任

相比之下,针对人工智能系统所引发的法益侵害,引入严格责任(strict liability)意义上的、不以过错为前提的刑法责任,则旨在针对机器背后的人类行为人。在民法的讨论中,针对自主性软件代理的制造商和(或)经营商而规定不以过错为前提的危险责任被认为是一种大有可为的解决方案。(101)对此参见Hacker, RW 9(2018), S.243, 258 f.; Schirmer, RW 9(2018), 453, 473 ff.;
Wagner, Robot Liability(June 19, 2018), S.13 f., abrufbar unter: https://ssrn.com/abstract=3198764(2019年9月16日访问);
Zech, in: Gless/Seelmann(Anm.16), S.197 ff.;
ders., ZfPW 2019, 198, 214 f.。民法上的危险责任(Gef?hrdungshaftung)旨在考虑社会对技术创新的需求,但这并不是将损害风险强加给遭受人工智能系统不可预见后果的随机的受害人,而是将损害风险强加给那些从创新中获得经济利益的人。因此,这同时也将风险评估(的任务)委托给了制造商方面,这不仅可以调控注意(程度)的水平,而且还可以调控积极性的水平。(102)Zech, ZfPW 2019, 198, 214; K?tz/Wagner, Deliktsrecht, 13.Aufl.2016, Rdn.503 ff.在刑法上,通常会援引罪责原则来否定不以过错为前提的结果责任。(103)Gless, recht 2013, S.54, 57; Gless/Janal, JR 2016, S.561, 564.这在结论上是具有说服力的,但是并没有充分、具体地指出,在刑法中,应用人工智能系统所造成侵害后果的因果责任问题究竟体现在哪里。对此,关键的着眼点在于,这里涉及的或许是一种针对允许的、没有违反义务的风险创设之后果的刑法责任。(104)参见K?tz/Wagner, Deliktsrecht, 13.Aufl.2016, Rdn.491; Zech, in: Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016, S.197。这不禁让人想起20世纪50年代末对有关问题的讨论,即除了故意与过失之外,是否还应当在刑法中将“风险行为(riskante Verhalten)”承认为有责的行为方式与归责根据。(105)Kaufmann, Das Schuldprinzip, 1976, S.145 ff.; Schweikert, ZStW 70(1958), S.394.刑法中的风险责任会在例如完全昏醉(Vollrauschtatbestand)这一构成要件(《刑法典》第323条a)与参与斗殴罪(《刑法典》第231条)等各罪中进行讨论。除此之外,还会援引自陷禁区(versari in re illicita)的归责原则,根据该原则,行为人由于“在不允许的事项中逗留”,即使他没有过错,也要对所有后果承担责任。(106)Kaufmann, Das Schuldprinzip, 1976, S.146 f.;
有关概念还可参见Roxin, Strafrecht Allgemeiner Teil, Bd.1, 4.Aufl.2006, § 10 Rdn.122。但是在上述例子中,可罚性也是以行为人创设了不容许的风险为前提,在完全麻醉状态(等仍然存在争议)的场合,可罚性则以非社会相当的、非期望的风险创设为前提。(107)对《德国刑法典》第323条a与第231条通说方案的批判,参见Roxin, Strafrecht Allgemeiner Teil, Bd.1, 4.Aufl.2006, § 23 Rdn.7 ff.。只有在这样的背景下,并且在万不得已时,才可在此认为将上述刑法构成要件中出现的结果构建为客观处罚条件是合法的。(108)反对观点参见Roxin, Strafrecht Allgemeiner Teil, Bd.1, 4.Aufl.2006, § 23 Rdn.9,为了避免违反责任原则,作者要求可罚性须以行为人在其醉酒状态下所实施的行为存在过失为前提。由此,目前考虑将危险的人工智能系统投入流通所出现的结果认定为客观处罚条件的方案(109)Hilgendorf, in: Festschrift für Fischer, 2018, S.111.将会面临的问题是,这些方案必须首先证明投入流通行为的不被容许性(Unerlaubtheit)。这首先以制定一个抽象危险犯为前提,即“在并非充分安全的情况下将危险产品投放市场”。(110)参见Hilgendorf, in: Festschrift für Fischer, 2018, S.111;
还可参见下文(四)过失犯。相比之下,不违反义务地制造、销售或运营人工智能系统的行为则是一种容许的、社会期待的行为。一个容许的行为在概念上就已经不可能辜负法律上的行为期待,因此,也就不需要在刑法上确证规范的效力(Best?tigung der Normgeltung)。正由于此,应将刑法上针对容许行为的风险责任视作与刑法体系相异的突破,而同样加以否定。(111)反对将“风险犯”作为第三种不法或责任范畴的观点还有Radtke/Duttge, in: Münchener Kommentar zum StGB, Bd.1, 3.Aufl.2017, § 15 Rdn.30。

(三)危险刑法:将科技创新作为不容许风险

与针对容许风险的刑法结果责任不同的是第三种以抽象危险犯为基础的危险刑法模式。在此模式中,行为人通过在市场上投放或运营智能机器,创设了对刑法所保护法益的不容许危险,而因此承担责任。更确切地说,是通过抽象危险犯将创设风险的行为就已经定型为不被容许的,而不考虑结果是否发生。考虑到科技法在支持创新与最小化风险之间此消彼长的功能(112)Zech, BJM 2014, S.3, 6.; Müller/Zech, Sicherheit & Recht, 2019, 72, 78 f.; Führ, in: Grunwald/Simonidis-Puschmann(Hrsg.), Handbuch Technikethik, S.384, 386.,(制定)抽象危险犯是存在问题的,因为抽象危险犯是片面敌对创新的。因此,只有在必要时,才可以考虑按照科技法上的预防原则,在特殊的领域范围内使用抽象危险犯对人工智能进行规制。(113)有关规制人工智能应用相关风险的必要性,还可参见Meyer, ZRP 2018, S.233, 234。尽管如此,这也开启了刑事立法者明确人类对技术后果答责的可能性,即禁止特定的决策,例如禁止将生或死的决定授权给人工智能系统,或是禁止将具有高度损害可能性的人工智能系统(114)Hilgendorf, in: Festschrift für Fischer, 2018, S.111.投入流通等。

鉴于人工智能系统在此被视作创新的风险技术,文献中有学者提出将传统风险管理的规制策略作为人工智能规制“蓝图”的建议,便也就不足为奇。(115)Martini, Blackbox Algorithmus-Grundfragen einer Regulierung Künstlicher Intelligenz, 2019, S.113 ff.,文章提及了纳米技术、人类遗传及药品法等例子;
另外还可参见Gaede, Künstliche Intelligenz-Rechte und Strafen für Roboter?, 2019, S.76 f.。这方面的例子既包括对自主武器系统的禁止(116)参见Dederer, RW 9(2018), S.380;
有关政治讨论的现状,参见Draft Report of the 2019 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, abrufbar unter: https://www.unog.ch/80256EDD006B8954/(httpAssets)/5497DF9B01E5D9CFC125845E00308E44/$file/CCW_GGE.1_2019_CRP.1_Rev2.pdf(2019年9月18日访问);
从科技哲学的视角,参见Weber, in: Gruber/Bung/Ziemann(Anm.65), S.267;以及Lenzen, Künstliche Intelligenz, 2018, S.211 ff.。,还包括借鉴现有对高程度或完全自动驾驶功能汽车的规定(《德国道路交通法》第1条a),在无特殊许可前提下将自主护理机器人投入市场的行为规定为可罚的危险犯。(117)有关在保守治疗和临终关怀领域应用机器人,参见Susanne Beck, MedR 2018, S.772。最后,这里还包括(以类推基因技术法的方式)对所谓“强人工智能”或“超级智能”出现和释放的危险作出法律上的预防。(118)对此参见第四章(一)末尾。因为抽象危险犯充其量也只是一个在特定领域中可以接受的(未来)解决方案,因此,在未来,针对人工智能系统的刑法创新责任还必须主要按照一般过失教义学的标准(Ma?gabe der allgemeinen Fahrl?ssigkeitsdogmatik)来进行判断。

(四)过失:不容许风险的刑法责任

与将人工智能系统投入市场或运营有关的刑法过失责任的前提是,行为人个人对投入市场或运营人工智能系统(行为)所启动的可能造成损害的流程具备预见可能性和避免可能性。就此而言,法律或产业协会针对人工智能系统特殊自动化定义的行为标准与质量标准可以提供杜特格(Gunnar Duttge)所要求的“诱因要素(Veranlassungsmoments)”(119)Radtke/Duttge, in: Münchener Kommentar zum StGB, Bd.1, 3.Aufl.2017, § 15 Rdn.121 ff.;
以及基础的讨论,参见Duttge, Zur Bestimmtheit des Handlungsunwerts von Fahrl?ssigkeitsdelikten, 2001, S.279 ff.。意义上的参照。这方面的一个例子是《德国道路交通法》对具备高程度或全自动化驾驶功能汽车的规制(《德国道路交通法》第1条a与第1条b)。(120)对此参见Kaler/Wieser, NVwZ 2018, S.369, 370 f.。但是,除此之外,基本没有关于人工智能发展的有约束性的标准规范。正如袁天宇(Tianyu Yuan)在一篇充分结合了计算机科学内容的文章中所表明的那样,在人工智能系统的研发中,这些(法律)没有规定的领域也存在一系列典型的注意义务违反(现象)。(121)Yuan, RW 9(2018), S.477, 495 ff.只要存在这样的违反注意义务的情况,那么后续致死受伤或死亡形式的人工智能系统自主性风险的实现,似乎就不能被视作“技术故障”;
相反,只要损害发生对于编程人员或生产商而言是个人可预见且可避免的,那么上述自主性风险的实现便可作为不容许风险创设的后果而归责于编程人员或生产商。一般来说,可以区分例如建模错误(Modellierungsfehler)、训练数据选择场合的错误以及对所获结果安全性评价场合的错误。(122)Yuan, RW 9(2018), S.477, 496.这些错误属于传统的生产错误(Produktionsfehler),其损害潜力通常从一开始就可以识别,而不是像所谓的开发错误(Entwicklungsfehler)那样,只有在事后人工智能系统的运营过程中才可以识别其损害潜力。就此而言,在法庭实践中,对人工智能系统相应技术运作的确切认识将是决定性的,为此,法律适用者最终还是需要依赖外部的计算机科学专业知识。

格勒斯(Sabine Gless)和其他学者已经详细介绍了(123)Gless/Janal, JR 2016, S.561, 565; Gless/Weigend, ZStW 126(2014), S.561, 582; Gless, recht 2013, S.54.,对于人工智能系统投入市场之后的阶段,应当适用刑法产品责任的原则,即制造商有对事后认识到的,或是具有认识可能性的人工智能产品的风险错误开发作出反应的保证人义务。

首先,就过失结果不法而言,在应用机器学习系统(Machine-Learning-Systeme)的情况下,义务违反关联(Pflichtwidrigkeitszusammenhang)的证明会存在问题。(124)对此参见Yuan, RW 9(2018), S.477, 498 ff.。在符合义务的编程场合,确认人工智能系统“行为”的假设性发展是必要的,但这种必要的确认在基于功能的机器学习场合却尤其困难。因为,在这一方面,即使可解释人工智能(explainable AI)领域已经有了一些新的研究成果,人工智能系统在很大程度上仍然还被视作黑匣子(Black Boxes)。(125)Martini, Blackbox Algorithmus-Grundfragen einer Regulierung Künstlicher Intelligenz, 2019, S.28; Lenzen, Künstliche Intelligenz, 2018, S.75 ff.; Rahwan et al., nature 568(2019), S.477, 478; Wischmeyer, A?R 143(2018), S.1, 43 und 61 ff.因此,认为通过例如应用计算机模拟等人工智能的数学设计能够减轻义务违反关联证明的难度,这样的评估或许是过于乐观了。(126)Yuan, RW 9(2018), S.477, 499.尽管如此,这样的思考还是为我们提供了一个正确的方向:机器行为(Machine Behaviour)(127)Rahwan et al., nature 568(2019), S.477.这一可靠的跨学科研究(领域)或许能够有益于解释那些对刑法过失归责而言必要的因果关联。

在应然法上(de lege ferenda),如果像希尔根多夫(Eric Hilgendorf)建议的那样,将没有充分安全保障的危险人工智能系统投放到市场所造成的结果设定为客观处罚条件,那么这也可以消除义务违反性与结果之间的证明问题。(128)Hilgendorf, in: Festschrift für Fischer, 2018, S.111.由于希尔根多夫并不想让将危险人工智能系统投入市场的行为普遍受到刑法处罚,而只想将刑事处罚限制在“没有充分安全保障”的情形,因此,他的模式并没有使过失的证明变得多余。本质上说,希尔根多夫的建议似乎更多是为了减轻过失归责中的证明负担,因为,如果结果的发生只是客观处罚条件的话,那么义务违反关联的证明也就没有了必要。另一方面,还值得注意的是,在例如医事刑法等其他(过失犯的)应用领域中,过失犯中义务违反关联的确认往往也存在困难,但这并不被视为刑事处罚中不可容忍的漏洞。以放弃义务违反关联证明的形式引入严格责任,有可能会消融过失构成要件的边界,因此这也会在人工智能的语境下存在疑问。只要立法者不通过真正抽象危险犯的方式在特定技术或应用领域中普遍禁止人工智能系统投放市场[对此参见本章第(三)节],那么,只有当可以依据过失一般原则将(产品损害)归责于制造商时,制造商才对产品造成的损害承担责任。

最后,如果我们从人工智能系统(例如自我学习的护理机器人)运营者的方面来看,那么,无论如何也可以在此定义具体的注意义务。这些具体注意义务遭到违反时,特定实害结果的发生通常在客观和主观上都是可预见的。此时,摆在面前的问题是,在诸如护理等领域,运营者是否被允许、以及在何种程度上被允许将任务委托给使用过程中不受监控的人工智能系统。无论如何,运营者都有义务持续地监控人工智能系统是否在认真地完成任务,并对错误开发(Fehlentwicklung)作出应对。学习型的人工智能系统恰恰不是人们可以根据信赖原则给予信任的、行为时可以答责的个人;
相反,人们可以借鉴刑法判例对动物危险的表述,因为学习型人工智能系统“无法理性地操控其行为,而且一般是无法预测的”(129)BayObLG, 30.12.1987-RReg.3 St 226/87.,所以学习型人工智能系统更多的是一种危险源。对于这样一种“危险源”,“为了共同体生活的安全,那些危险源出现在其社会支配领域中的人……要对此负责”。(130)BayObLG, 30.12.1987-RReg.3 St 226/87.有关上述对动物危险的类推,可参见Zech, in: Gless/Seelmann(Hrsg.), Intelligente Agenten und das Recht, 2016, S.196。因此,面向人类的人工智能系统的刑事责任也证明了,将过失作为刑法创新责任的基本模式是恰当的。

本文对人工智能风险教义学思考的结论是,高度现代的人工智能系统的革新性影响还处于刑法对创新风险归责的界限内,或者说也应当将高度现代的人工智能系统的革新性影响控制在刑法对创新风险归责的界限内。对于人工智能所诱发的损害,刑法恰当的应对不是将责任转移给机器,也不是引入不以过错为前提的严格责任。相反,一方面,应该更多地在公共技术与安全法中定义授权自我学习的自动装置在未知情形下进行决策的绝对法律界限。另一方面,对所有人工智能系统的单个应用领域都应当参考一般过失教义学,探究机器后人类主体的个人责任。这同时也说明,不得从技术创新与刑法创新两者必要因果关联的意义上理解革新技术的概念。相反,正是对技术革新潜力的洞察,才使对“风险刑法之风险”的批判性反思成为可能。(131)Prittwitz, in: Frehsee/L?schper/Smaus(Hrsg.), Konstruktion der Wirklichkeit durch Kriminalit?t und Strafe, 1997, S.47 ff.换言之,应当理解的问题是,在应对数字化而作出积极改变的过程中,刑法究竟被动地遭遇了什么。(132)效仿Baecker, 4.0 oder Die Lücke die der Rechner l?sst, 2018, S.9中的表述。

猜你喜欢 刑法规范人工智能 来稿规范北部湾大学学报(2022年1期)2022-06-22来稿规范北部湾大学学报(2022年2期)2022-06-21PDCA法在除颤仪规范操作中的应用现代仪器与医疗(2021年4期)2021-11-05来稿规范北部湾大学学报(2021年4期)2021-04-28过度刑法化的倾向及其纠正法律方法(2021年4期)2021-03-162019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24数读工智能小康(2017年16期)2017-06-07下一幕,人工智能!南风窗(2016年19期)2016-09-21刑法的理性探讨中国市场(2016年45期)2016-05-17

推荐访问:责任 过失 刑法

版权声明:

1、本网站发布的作文《刑法中的创新责任:在严格责任、过失与容许风险之间*》为爱作文网注册网友原创或整理,版权归原作者所有,转载请注明出处!

2、本网站作文/文章《刑法中的创新责任:在严格责任、过失与容许风险之间*》仅代表作者本人的观点,与本网站立场无关,作者文责自负。

3、本网站一直无私为全国中小学生提供大量优秀作文范文,免费帮同学们审核作文,评改作文。对于不当转载或引用本网内容而引起的民事纷争、行政处理或其他损失,本网不承担责任。

热门专题