林星成
上海交通大学凯原法学院硕士生
要目
一、问题的提出
二、人工智能涉罪问题之本质
三、人工智能涉罪问题处理的基本原则、立场与价值取向
四、人工智能涉罪问题处理的基本路径和主要方法
结语
当下人工智能涉罪问题研究热度正盛,却充斥着概念比附、对策论过度等诸多弊端。面对此现象,应当以教义学为展开,在落实人工智能涉罪问题之本质的基础上依赖刑法基本原则对人工智能涉罪相关问题进行明确,同时表明在人工智能时代应有的刑法立场,并理性分析人工智能时代的刑法价值取向变化,最后再提出解决问题对应的基本路径与主要方法,才能从实然与应然双层面对人工智能刑事风险进行有效把控。
一、问题的提出
年8月29日,世界人工智能大会在上海隆重开幕。来自全球各个国家和地区的顶级人工智能科学家、行业专家乃至企业家,围绕人工智能的核心技术、行业落地、发展要素等问题进行了深刻探讨,掀开了人工智能发展的新篇章。然而在国内甚至国际上的政府层面,根据《g20国家科技竞争格局之辩》系列报告的数据显示,各国政府积极开展人工智能领域布局,以递进式、持续性的专项战略或规划引领人工智能的发展方向。遗憾的是,虽然不少国家和机构出台了相应的法律法规和原则主张,但各国间仍缺乏大家共同接受的人工智能治理原则和在价值观和理念上的共识。在学术研究层面,对人工智能领域的学术研究热度更可谓持高不下,围绕人工智能时代之挑战久久呈百家争鸣之局面而不散,虽然美国的人工智能总体科技实力位居g20国家首位,可中国紧随其后且增速明显,尤其是近五年的论文影响力和技术研发实力已超过美国,由此可见在中国学术界对人工智能的研究之狂热。然回归到刑法学领域,纵观业已发表的相关论文,不难发现,人工智能的学术研究已向反智化批判阶段悄然过渡,皆是由于对人工智能的研究前期急于求成,导致出现了迄今为止人工智能涉罪问题研究的种种偏误,例如概念比附、刑事风险夸大、真伪问题难分、对策论缺乏体系和论证等。而究其根本皆是由于在人工智能法学领域的教义学研究严重不足,才会招致这本末倒置、偏误丛生的学术境地。由此可见,在如今稍显浮躁的人工智能法学研究领域,从法教义学重新对人工智能涉罪问题展开理性分析显得尤为必要,也只有以法教义学为研究前提,才能使由此散发而出的对策论有章可循、有据可依,否则脱离了教义学的所谓“研究成果”终不成体系、零散无章而沦落为昙花一现的学术泡沫。
二、人工智能涉罪问题之本质
近些年来,关于人工智能涉罪问题讨论的非凡激烈,综合看来,大多是基于人工智能体刑法地位的各抒己见而引出的相应对策论。但其中不乏存在诸多不足或称谬误:法学界人工智能概念漫天遍地,充斥着不一而足的概念比附;由现有的智能机器致人损害事件浮想联翩出人工智能时代巨大刑事风险,却因对现有的“人工智能”产品认识不足而难掩杞人忧天之态;急不可待地将人工智能划出强弱之分,并建议赋予强人工智能以犯罪主体资格,继而提出删除数据、修改程序、永久销毁等新型制裁措施,却因缺乏教义学的支撑而存在着显而易见的逻辑矛盾。凡此种种,皆足以证明教义学之重要性。易言之,对于人工智能涉罪问题之本质的研究,必须以刑法教义学为出发点,方得始终。
人工智能相关概念整饬
在刑法的体系性思考中,类型性的思考方法也许是最为重要的。法教义学是一种概念法学,而这里的概念本身就是一种类型。所谓的概念法学,是指因概念的封闭性而使法律规范形成对司法者的某种限制,以保证一般正义的出现。阿图尔·考夫曼(arthurkaufmann)更认为,立法者的任务是用概念对类型加以描述,因为立法是类型概念化。反观目前关于人工智能的法学研究中,不仅对于“人工智能”这个属概念的定义已经五花八门,更由此导致人工智能的相关产品的指称名词多到令人眼花缭乱,诸如“人工智能体”“智能机器人”“人工智能”“人工智能产品”等,更有不少学术文章将人工智能的属种概念混淆不清,直接粗暴地以“人工智能”代替“人工智能体”或“智能机器人”贯穿全文。但诚如前述,概念正因为其所具有的封闭性才具备通过法律规范对司法者的限制,现如今的人工智能相关概念尚未统一,诸多学者各行其道,在各自所理解、使用的概念基础上所做出的学术研究更像株株细弱树苗,无法汇聚成参天大树继而不断向新高度生长。
英国数学家艾伦·图灵(alanturing)于年首次提出了机器智能的概念,而名词“人工智能”(artificialintelligence)则是研究人员于年达特茅斯学院的一次会议中率先使用。此后,数学、逻辑学、认知科学、及生命科学等领域纷纷对人工智能积极开展理论研究。然迄今为止人工智能既是指通过计算机以及相关设备使机器能够复制或模仿人类行为的技术,又是属于雨伞术语(umbrellaterm),包括检索解决问题、知识表达、机器学习、自然语言处理、人工神经网络等主要技术。但人工智能的一个长期目标是发明出可以像人类一样或更美好地完成以上行为的机器。
基于生杀予夺的特性,刑法相比其他任何部门法而言都更需要精确与精细,故关于基本的概念问题绝对不能似是而非、随意附会。在现有的人工智能法学领域,首先,从技术角度而言对“人工智能”并不存在统一的理解,更遑论法律层面;其次,“机器人”一词最早出现在20世纪20年代,捷克剧作家卡雷尔·恰佩克(karelcapek)在其剧本《罗萨姆万能机器人公司(r.u.r)》中第一次使用该词。在该剧本中,“机器人”是指在工厂里被用作奴隶劳动力的人造人(artificialhumans),但是时至今日何谓“机器人”仍然没有定论,这说明我们处于一个十分早期的阶段,只不过大多数人能够同意:能够对外部刺激作出反应且不需要直接的或持续的人类控制就可以采取行动的人造物体就是一个机器人。我们并非反对在人工智能技术方兴未艾之时对其概念展开讨论并赋予各自的理解,毕竟学术争鸣自古有之也更能推动学术研究的发展。我们反对的是当下人工智能相关概念随意比附的些许乱象,甚至在对人工智能理解不清、界限不明的基础上便对人工智能体是否能够具有犯罪主体资格、犯罪主客观方面认定以及刑法规制措施等难题上深入探析。
强弱人工智能划分方式之局限
“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的,后被引用到其他学科。迄今为止,法学界大部分学者都认同将人工智能划分为弱人工智能(artificialnarrowintelligence)与强人工智能(artificialgeneralintelligence)(又被称为一般人工智能和完全人工智能),划分标准大多为人工智能是否具有辨认、控制能力或自主独立意识。在此基础上,学者们以强弱为标准,认为应当赋予强人工智能体犯罪主体地位。此类观点的推理逻辑是:责任能力是判断刑事主体资格的核心要素,而除少数观点外,大部分学者认为刑事责任能力等同于辨认能力和控制能力,继而推理出人工智能体在拥有辨认能力和控制能力即意志独立于研发者和使用者的意志之外时应当拥有刑事主体资格。强弱人工智能的划分方式使人工智能体是否拥有独立意志成为多数人最为