|
人工智能的刑事风险及刑事辩护桂林刑事辩护律师 黄祖合博士大律师13558332398一、人工智能的技术发展与全球治理现状(一)人工智能的定义与技术演进脉络智能涉及到思想、意识、自我等问题的思考,人工智能是模拟人类智能的交叉学科技术,涵盖机器学习、计算机视觉、自然语言处理等方向。什么是人工智能,从学者们的观点出发,人工智能是研究人类活动的规律。尼尔逊教授认为“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”,麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”也即研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。对人工智能的研究,涉及到人的智能本身的研究。 计算机电子处理数据的方式为人工智能的实现提供了媒介,最终促成了人工智能的出现。“人工智能”于1956年首次提出,并在之后的时间里得到发展,虽然这个过程比较缓慢,但在计算机发展的过程中也创造了一些智能系统,对其他技术领域带来了影响,早期人工智能主要是计算机科学和数学领域,集中在逻辑推理和问题解决,比如定理证明和下棋程序。再后来mit开始研究机器辅助识别,吸引了全球计算机科学家,加快了人工智能研究的步伐。最后落地于医疗诊断,这是人工智能从理论研究转向实际行业应用的突破。再到人工智能技术的深度融合带来了技术突破,人工智能在人机对弈,模式识别,自动工程,知识工程上已经取得有效成果,并已经投入使用,且所呈效果显著,当前自然语言处理、计算机视觉、机器学习等领域不断涌现新成果。以DeepSeek为代表的开源大模型正逐渐渗透到诸多行业,引发新一代人工智能技术发展新浪潮。多模态融合技术逐渐兴起,将文本、图像、音频等多种数据模态进行融合处理。大数据、云计算推动着人工智能不断拓展应用场景和能力边界。随着不断深度学习,人工智能的自主性增强,人工智能有可能学习和掌握新的算法,由此衍生的潜在风险更具不确定性,也将引发未来人工智能是否会突破人类控制边界的思考。当前,人工智能技术的广泛应用已经滋生了伦理风险、道德风险及法律风险等,在刑法层面,人工智能时代的刑法体系不仅面临着有效规制新型刑事风险的难题,而刑法体系本身也处于一定程度的“动荡”之中。 (二)全球人工智能发展现状与监管趋势2018年以来,以ChatGPT、Sora、DeepSeek等为代表的预训练大模型持续取得突破,推动人工智能从感知向认知、从分析判断式向生成式、从专用向通用转变,进入快速发展的新阶段。当前,人工智能技术发展已从科学家推动转为研发应用推动。人工智能已经成为国际竞争的新焦点、经济发展的新引擎。人工智能与实体经济深度融合,催生了大量新产业、新业态、新模式。如智能机器人、无人驾驶、智能家居等,为经济增长不断诸如新动能。深入医疗、教育、交通、养老等社会生活中,辅助解决民生难题,提高了医疗服务的速度,促进了教育资源多元化,便利了出行效率。其发展成果惠及整个社会,且在未来还将持续发展,加强多模态融合,致力推动人工智能从“工具”向“协作伙伴”演变。总之,在人工智能的发展上,人工智能技术加速融入经济社会发展各领域全过程已是大势所趋。未来人工智能将向通用性、自主性、人机融合方向深化,但也面临技术伦理、数据安全等全球性挑战。如何应对挑战,各国采取不同的应对策略。 美国采取技术霸权与风险控制双轨并行。拜登政府通过行政令划定监管红线,要求算力超 100PFLOPS 的模型部署前 90 天申报,建立 "国家 AI 安全研究所" 专责评估高风险应用;FCC 启动 "AI 透明度计划",要求自动驾驶企业公开事故数据。再是推动联盟治理:通过主导 "民主国家 AI 联盟",联合日本、德国等建立 AI 研发伦理互认机制,限制关键技术流向 "非民主国家"。的一个霸权方式。欧盟的态度是强调“以人为本”的监管框架,通过严格立法与伦理优先,强调风险分级与数据主权。如其颁布的《人工智能法案》将 AI 应用分为 4 级,禁止社会评分、情绪识别等不可接受风险技术,高风险领域(如招聘、司法)需通过欧盟 AI 认证。《数据法案》要求平台向中小企业开放数据接口,《数字市场法案》限制大型 AI 企业 "自我优待",迫使谷歌、Meta 剥离部分垂直领域 AI 服务。我国立法聚焦于人工智能的安全可控。刘宪权的分级理论已被司法实践部分采纳。例如,在 “全国首例利用 AI 犯罪案” 中,法院依据 AI 的 “工具属性”,认定开发者构成侵犯公民个人信息罪。此外,其关于 “技术矫正刑” 的建议,也为《生成式人工智能服务管理暂行办法》(2023 年)中 “安全评估”“内容溯源” 等规定提供了理论支持。刘宪权教授的“三分法”理论框架为我们勾勒出人工智能发展进程中刑事法律应对的路线图。从弱人工智能到超人工智能,每一个阶段的跨越都伴随着刑事风险的增加与刑法应对策略的调整。 2022年,我国《互联网信息服务算法推荐管理规定》正式实施,为算法推荐服务提供了明确的规范与要求,确保其健康发展。紧接着在2023年,《生成式人工智能服务管理办法》应时出台,针对生成式人工智能服务进行了全面管理,推动其合理应用与创新。2024年,《人工智能法》更是被纳入国务院立法计划,这将全面规范人工智能的发展与应用,为相关产业提供法律保障与指导,助力人工智能技术更好地造福社会。我国在AI刑事风险研究领域已取得显著进展,从最初的概念探讨逐步深入到制度构建阶段。在人工智能的迅猛发展下,我们必须未雨绸缪,积极开展相关研究与探讨,以期为未来可能出现的刑事风险提供有效的法律解决方案,确保人工智能技术的健康发展与社会秩序的稳定。 二、人工智能的刑事风险类型化分析(一)算法偏见与歧视风险算法偏见是指在人工智能系统的数据处理、模型训练以及决策输出过程中所呈现的系统性偏差。这种偏差有可能导致歧视性结果,进而构成刑事法律风险。随着人工智能技术在司法、金融、就业等关键领域的广泛应用,算法偏见已不再仅仅是技术层面的问题,已经演变为一个具有严重社会危害性的法律问题。它可能侵犯公民权利、加剧社会不公,甚至诱发系统性犯罪,对社会造成了深远的负面影响。因此,要重视对于算法偏见问题的解决,这需要技术、法律和社会各界的共同努力,才能实现公平公正的人工智能应用环境。 对于公民来说,算法歧视侵害的是其享有的基本权利,当前侵害主要表现为性别歧视以及劳动权益的歧视,国外还存在种族歧视或信仰歧视,例如亚马逊AI招聘工具性别歧视案中系统自动降级包含"女子"、"女校"等关键词的简历,对男性候选人的评分系统性高于女性,这将减少女性获得面试机会的可能性,这种偏见不仅对女性求职者不公,也限制了企业的多样性和创新力。但这在我国不太显著。但这些问题的存在,揭示了技术发展中公平性和伦理性的重要性,亟需我们在技术设计和应用过程中给予更多的关注和调整,以实现真正的平等和公正。 (二)自主决策责任归属难题人工智能行为是否具备罪过,责任该如何追究为当前传统刑法困境。以自动驾驶汽车为例,当不同自动化程度的汽车导致交通事故时,其责任划分该如何认定,目前没有一个准确的标准。传统刑事归责理论要求行为人对其行为及结果具备预见可能性,但人工智能系统的自主决策特性给行为可预见性判断造成了极大阻碍。在自动驾驶致害案件中,涉及驾驶者、系统设计者、生产者等多方主体,其因果关系链条复杂交织,且在技术层面的算法决策"黑箱"特性导致行为依据难以追溯,进一步加剧了结果归责的困境。 例如闫某危险驾驶一案中,原审被告人闫某于2023年3月2日醉酒驾驶机动车,被北京市东城区人民法院以危险驾驶罪判处刑罚。闫某不服判决,提出上诉,主张确实醉酒后驾驶机动车在道路上行驶,但由于车辆具备且开启了自动驾驶功能道路危险性大大降低,以此原审法院量刑过重,应依法适用缓刑。[20]最后,终审法院根据我国现阶段对自动驾驶申请主体、车辆及试点、示范区域等限制性规定,认定事故发生时缺少客观证据证明车辆已开启自动驾驶功能。可见自动驾驶技术让驾驶人员大大放松了警惕,潜在危险程度提高,甚至以其为原因来规避刑事处罚。虽然该案的最终裁定结果为驳回上诉,维持原判。但我们不得不考虑在自动驾驶技术持续发展中,当其自主实施严重危害社会的运动过程,是否属于刑法意义上的行为,学界尚未对此形成定论。 应对这一挑战,学界创新性地提出了不同的责任模式,来预防人工智能系统的风险。[8]而目前学界为防止人工智能致害的责任漏洞而提出的创新性责任模式,均难以在法益保护、科技创新和社会利益三者之间达到动态平衡。 (三)新型犯罪工具风险生成式人工智能如ChatGPT,其文本、图像、音频生成能力突出,在应用中生成式人工智能系统通常需要广泛收集各类数据,对数据进行解析,一旦没有界限,使其极易发生数据泄露、数据污染、数据侵权等方面的刑事法律风险,继而触犯法律。人工智能被用于网络攻击、金融诈骗等,犯罪手段更为隐蔽。当前最常见的为生成式人工智能被滥用为虚假信息传播工具。 其深度伪造技术可生成逼真虚假内容,威胁着社会信任与司法公正。用户们对生成式人工智能有着浓厚的兴趣,尤其像chatgpt、sora、deep seek等知名工具,还有逐渐大热的豆包、文心一言等国内人工智能工具,这些工具都受到广泛的使用,让人们在内容创作上有了更大的发挥空间,但其生成内容的真实性还有待辨别,该技术能够轻易创造出高度逼真的虚假内容,如假事实,假身份,其生成内容的随意性与缺失性,造成信息污染,影响他人判断,愈演愈烈为谣言,将会干扰公共舆论的健康发展,威胁诚信体系,可能还将诱导他人做出错误的行为选择,做出犯罪行为。 区别于传统犯罪的网络诈骗利用人工智能技术提升欺骗性,侵犯他人人身权利与隐私,例如2023年6月至8月,白某某在北京海淀区等地发布人工智能虚拟广告,将他人提供的承载人脸信息通过深度制造技术人工智能软件制作成裸体图片贩卖牟利,同时出售人工智能去衣软件及使用教程牟利,还有通过人工智能换脸软件将从互联网等渠道收集到的他人人脸信息与一些淫秽视频中的人脸替换或合成淫秽视频,在网络上传播并获利。还有行为人利用人工智能技术中智能内容生成、内容解析、用户行为仿真模拟等技术,收集他人信息,模拟特定人或群体的行为方式,冒充他人身份实施诈骗。比如通过 人工智能 技术伪装成他人声音进行电话诈骗,或利用人工智能 生成虚假信息诱导受害者进行转账等操作。即使我国在反诈方面投入了大量精力,但在层层打击下当前衍生出更高端的诈骗方式,很多犯罪手段仍防不胜防。新型的犯罪行为必将冲击着原有罪名的适用与量刑。 (四)数据安全风险生成式人工智能具有类人属性,它通过与用户的互动收集大量用户数据,再进行多模态融合与深度学习分析产出,但这一过程存在数据与隐私保护,算法偏见,生成内容不可控等因素,极易诱发隐私与数据安全等风险。 在获取数据的渠道上,手段丰富多样,例如利用爬虫技术筛选提取信息、数据库查询、人机交互等等,在未来,或许会衍生更多的渠道,这也将导致数据来源的不确定性提高,人工智能依托的是大量的数据参数和庞大的算力规模,倘若无法解释数据来源的正当性和合法性,将导致违反伦理和违法犯罪事件层出不穷。如“李某祥侵犯公民个人信息刑事附带民事公益诉讼案”。 在数据处理上,当前鉴于生成式人工智能生成内容的多样化,用户可以发出指令让人工智能生成想要的内容,其在内容创作上广受欢迎,短视频创作,生成式人工智能可以通过分析用户给出的文字描述输出一段根据文字内容展开的视频。还有当下最热的利用生成式人工智能进行歌曲创作与小说撰写,都是利用人工智能生成,但能在其中发现,其生成的内容隐含着一些现有的作品的影子,主要源于其生成的内容大多都是根据现有作品,再对其进行深度分析处理。虽然并不是对原作品的复制,但其核心要素仍与原作品相同,而法律在判断新生成的内容是否构成版权侵权,会考虑其与原作品之间的相似性,且这一相似是否超出了作品对于独创性的要求。以杭州互联网法院奥特曼形象侵权案为例。被告运营的 人工智能 平台提供多种功能,平台上存在有关奥特曼的智能生成图片以及 LoRA 模型。该模型系用户上传奥特曼图片,选择平台基础模型,调整参数进行训练后生成。其他用户可通过输入提示词,选择基础模型、叠加奥特曼 LoRA 模型进行训练后生成与奥特曼形象实质性相似的图片。奥特曼系列形象的知识产权权利人认为被告侵害其信息网络传播权,构成不正当竞争。被告辩称平台属于“避风港” 规则下的平台免责范围,不构成侵权。杭州互联网法院审理后作出一审判决,认定被告构成侵害信息网络传播权的帮助侵权,判决被告立即停止侵权并赔偿经济损失及合理费用 3 万元。虽然该案以民事案件结案,但当侵权数量以及额度达到刑法惩罚程度时,将可能转化为刑事案件,人工智能创作在知识产权上时面临的侵权风险。 (五)系统失控风险根据人工智能的水平状态,学界将人工智能分为强人工智能与弱人工智能,人工智能的强弱以人工智能是否具有辨认能力和控制能力为标准。弱人工智能仍属于工具范畴,其所有行为均在人类预先设计的程序和算法框架内执行,只能完成特定任务,无法进行自主决策。强人工智能则是具备了与人类相似的独立进行认知、思考、判断和解决问题的能力。当前主流形态为弱人工智能,强人工智能仍处于理论阶段。在2023年的《AI全球治理宣言》中,来自23个国家的代表首次将“防止AGI行为偏离”列为首要任务,这标志着这一威胁已经正式进入全球政治议程。在人工智能能力不断突破与安全性研究的竞赛中,人类文明正面临着前所未有的技术伦理挑战,可见强人工智能的潜在失控并非仅存于科幻想象中,而是逐渐上升的生存性风险。尤其是潜在的自主性可能引发技术、伦理和法律的多重挑战。 三、传统犯罪构成要件的适应性危机在犯罪主体方面,传统犯罪构成要件中的主体主要是自然人,部分情况下涉及单位。然而,人工智能的出现打破了这一传统界定。当它实施危害行为时,传统的将犯罪主体限定为自然人和单位的规定难以适用。例如,一个能够自主进行交易操作的智能金融交易系统,若因程序故障或异常学习而进行非法证券交易,造成重大经济损失,此时难以按照传统犯罪主体理论确定责任主体。另一方面,对于由人工智能引发的犯罪行为,是由开发者、运营者承担责任,还是将人工智能本身视为独立主体承担责任,这在法律上尚无定论。这种不确定性给司法实践中的定罪量刑带来了极大困难,传统犯罪构成要件中的主体规定急需完善,以适应人工智能时代的需求。 在主观方面,依据传统犯罪构成要件理论,行为人需具备故意或过失的主观心理要素方可构成犯罪。但人工智能本身并不具备传统意义上的心理状态。它是按照程序和算法运行的技术产物,并没有像人类一样的意识、情感和意志。例如,在一些利用人工智能进行诈骗的案件中,智能聊天机器人可以通过学习大量话术来欺骗受害人,但其本身并没有主观上欺骗他人的故意或过失。这就导致以自然人的主观心理状态为基础的传统犯罪构成要件,在面对人工智能犯罪时无法准确判断其主观恶性。因此如何在人工智能犯罪中认定主观方面,成为传统犯罪构成要件亟待解决的重要问题。 在犯罪客体方面,传统犯罪构成要件中的客体主要指刑法所保护的法益。但人工智能引发的刑事风险可能涉及到一些新的、前所未有的法益。如人工智能产生的虚假信息可能对公共秩序和社会信任造成严重冲击,影响社会的稳定和安全。这些新的法益在传统犯罪构成要件中并没有明确的定位和保护。再如,在自动驾驶领域,若人工智能系统出现故障导致交通事故,对人身安全和财产安全的威胁与传统交通事故有所不同,其涉及的法益保护也需要重新审视和界定。因此,传统犯罪构成要件中的客体概念需要不断拓展和完善,以涵盖人工智能时代所带来的新变化。 在客观方面,在传统刑事责任制度中,行为人对危害后果承担刑事责任是基于刑法上的因果关系,行为人的行为与危害结果之间必须存在有社会相当性的、正向引起或反向制止关系,即使是在间接正犯的场合,行为人对结果的支配作用也须确认。在人工智能系统介入的情形下,人工智能系统自主、直接引起危害后果,人工智能系统研发、生产和应用相关方对具体危害结果只有非支配性作用,难以认定其行为与危害后果存在刑法上的因果关系。传统的以确定性为基础的客观方面认定标准,在面对人工智能犯罪的复杂性时,需要寻找更科学、合理的方法和标准。 四、我国刑法应对人工智能犯罪的局限性未来,人工智能技术处于由弱而强的重要节点,具有通用性质暴发、主体地位颠覆的不确定性风险,进而对人工智能的心智本质及其人机关系提出了挑战。虽然传统刑法已经认识到人工智能的发展影响到了刑法适用与定罪量刑,但防卫措施仍然不够。 (一)立法层面的局限性1.罪名覆盖不足人工智能特有风险的规制缺位现行刑法罪名体系对人工智能(人工智能)技术的规制仍停留在传统犯罪框架内。例如,非法侵入计算机信息系统罪(第285条)仅针对非法访问行为,但无法规制人工智能自主决策引发的系统性风险。以自动驾驶系统为例,若因算法缺陷导致连环车祸,开发者可能以“技术不可控”为由逃避责任。现有罪名中,交通肇事罪(第133条)要求行为人存在主观过失,但人工智能系统的“自主决策”特性使责任认定陷入困境。此外,人工智能生成的深度伪造(Deepfake)内容可能煽动社会动荡,但现行刑法中的传播虚假信息罪(第291条)要求“编造并传播”,而人工智能生成内容的传播主体如平台或用户与开发者之间的责任链条难以厘清,导致法律适用模糊。 2.技术中立原则的滥用平台常以“技术中立”抗辩逃避审查义务,例如人工智能换脸软件被用于制作虚假视频,开发者以“工具属性”为由规避刑事责任。这种抗辩实质上是将技术工具与使用行为混为一谈。根据《刑法》第287条之二,平台需对用户行为承担“明知或应知”的审查义务,但人工智能技术的自动化特性使平台可主张“无法预见具体风险”。 (二)司法适用的困境1.因果关系断裂传统犯罪构成要件强调行为的客观性、危害结果的发生以及行为与结果之间的因果关系。然而,在人工智能犯罪中,这些要件的认定变得复杂多变。例如,由于人工智能的自主性和复杂性,其引发的危害结果可能超出开发者和使用者的预期,难以准确认定行为与结果之间的因果关系。而且,人工智能系统的学习和进化过程可能导致其行为和结果的不确定性,使得在客观方面的认定面临新的挑战。即人工智能决策的封闭性导致行为与结果间的因果关系难以证明。以医疗人工智能诊疗为例,若患者因人工智能误判病情死亡,需区分是算法缺陷如数据偏差、医生操作失误,还是患者个体差异导致的结果。“AI医生”往往是综合患者体征指标,通过算法和“经验”直接给出“答案”,尤其在面对复杂病情时,其运算过程可能已复杂到难以被人类完全理解。这种“技术黑箱”存在追溯困难使相关方很难证明人工智能产品缺陷与治疗失败的因果关系,其责任划分也就很难像一般医疗器械那样明确,使得传统刑法要求“相当因果关系”这一标准难以适用。 2.责任主体模糊当人工智能系统具备自主学习能力时,责任归属将面临法律真空。例如,美国一14岁少年在与一款名为 CharacterAI 的聊天机器人进行长时间对话后,于2024年2月28日自杀,该案疑为人工智能客服系统因自主学习生成歧视性回复,引发用户自杀。此时,责任可能涉及开发者(算法设计)、运营者数据管理或使用者不当干预,但现行刑法缺乏对“自主人工智能行为”的明确定义。根据罪责自负原则,若无法证明开发者存在主观过错,司法实践可能被迫放弃追责,或机械套用过失致人死亡罪,导致罪刑失衡。 (三)技术治理工具的缺位1.监管工具不足在AI内容治理方面,虽然我国已出台《人工智能生成合成内容标识办法》要求对AI生成内容进行标注,但在自动化检测、溯源追踪等配套技术上仍依赖企业自律,缺乏政府主导的标准化监管工具。对于深度伪造(Deepfake)、算法歧视等新型风险,尚未建立实时监测与动态干预的技术体系。我国对AI系统的法律合规性审查仍以人工为主,缺乏自动化工具辅助企业进行数据隐私、算法透明度等方面的自检。我国尚未建立类似美国“首席人工智能官(CAIO)”和“人工智能治理委员会”的跨部门协调机制,导致AI治理工具的开发与应用分散,难以形成合力,不利于人们消除对人工智能系统应用的焦虑与抗拒。 2.人工智能训练数据的合规性漏洞近年来,人工智能(AI)训练数据的合规性问题日益突出,涉及数据来源合法性、隐私保护、版权争议。目前我国《数据安全法》《个人信息保护法》等法律法规虽对数据安全和个人信息保护作出原则性规定,但针对AI训练数据的特殊性仍存在诸多漏洞。我国现行法律法规未针对人工智能训练数据的采集、标注、存储制定专项规范。例如,JF.rog 的安全团队发现Hugging Face 平台上至少 100 个恶意人工智能 ML 模型实例,其中一些可以在受害者的机器上执行代码,为攻击者提供了一个持久的后门,构成了数据泄露和间谍攻击的重大风险。通过上述分析可见,现有规范难以全面抵御人工智能犯罪风险,亟需通过罪名体系扩容、平台责任明确化及跨领域协同治理实现适应性调整,以兼顾技术创新与法益保护的双重目标。 五、人工智能刑事责任的立场争议与理论重构肯定论者认为,根据人工智能的发展,肯定了具有自主学习能力的智能机器人为“第三类人”“人工人。赋予了人工智能独立刑事责任的主体地位。如果将人工智能机器人作为刑事责任主体,那么现有的刑罚种类和执行方式将难以适用,传统刑罚如自由刑、生命刑对机器人毫无意义。肯定论者提出通过对机器人进行程序修改、数据删除、停止运行等新型刑罚方法,来妥善解决人工智能体脱离人类控制、侵害法益的风险中的刑事责任归属问题。与之相对,否定论者认为人工智能与人之间存在不可跨越的鸿沟,即“意识”,人可以有自我道德的约束或在惩罚中产生悔过思想,但人工智能作为机器,其行为是按照预设程序执行,很难说其具有像人类一样的主观故意或过失,缺乏生物学与社会学意义上的主体性,不可能像人一样。 首先从刑罚的适用上来说,针对刑罚的惩治和预防,如果说要通过一系列行为规制来惩罚,由于人工智能体并没有意识和感受,那么所有的行为惩治对于其来说是意义的不大的。而且也很难通过刑罚预防人工智能再次犯罪,因为其行为更多受程序和算法控制,而不是像人类受主观意识和道德观念影响。 其次,关于刑事责任主体与拥有刑事责任能力。刑事责任能力是指行为人对自身行为性质及其后果的辨认能力与实施行为时的意志控制能力,这是行为人承担刑事责任的前提条件,即只有当行为人能够清晰认知行为的社会意义并自由选择行为时才具有可归责性;而刑事责任主体则是实施刑法明文规定的犯罪行为且值得刑法进行否定性评价的责任承担者,二者的逻辑关系表现为刑事责任能力是刑事责任主体的必要非充分条件 —— 具备独立责任主体地位者必然拥有刑事责任能力,但拥有该能力者未必当然成为责任主体,例如野生动物在捕食时对猎物的识别与行动选择虽具备生物层面的行为辨认与控制能力,却因缺乏超越生物本能的社会规范认知能力而被排除在犯罪主体之外;当前主张肯定说的学者可能陷入构成刑事责任主体的理论误区,其错误根源在于将人工智能的算法决策能力等同于人类基于道德伦理的规范认知能力,忽视了刑法责任主体必须是受社会规范约束的人类这一本质特征 。而这种以技术能力相似性替代规范可归责性的论证逻辑,本质上是对刑事责任主体性理论的根本背离。人工智能体是基于深度学习做出表现于外部世界的反应或举动难以认定为刑法中的“行为”,难以用传统的故意或过失等主观要素来衡量,其虽然具有刑事责任能力的主体却并不一定拥有独立刑事责任主体的地位。缺乏值得刑法处罚的对象。且当前技术无法确保人工智能的可解释性,其行为因果链难以追溯,如赋予主体资格可能引发伦理危机。 如前所述,在肯定人工智能具有刑事主体资格和否定其具有刑事主体资格上存在明显分歧,这是目前最大的分歧点。虽然对于人工智能犯罪中各个主体:使用者、生产者、开发者等之间的责任分配,学者们尚未达成一致意见,不同观点在考虑的因素、责任范围等方面都有所不同。但在以下问题上形成基本共识: (一)强调传统刑法的基础作用在发展中人工智能带来新情况,多数学者认可传统刑法在应对人工智能犯罪中仍具有重要基础作用。从广义上来说,人工智能犯罪的本质是传统犯罪的网络化或技术化形态,传统刑法理论和方法在很大程度上能够适用于此类犯罪的认定和处理。 1.人工智能工具属性的优先性在当代技术与社会发展的理论框架内,人工智能在本质上仍然是一种工具。这一属性决定了谁对其行为后果进行责任承担,而人类作为人工智能的创造者与操控者,必然成为其行为后果的最终责任主体。以利用人工智能伪造证据的案件为例,在整个过程中,人工智能只是开发者或者使用者实现特定目的的手段。开发者通过编写程序、设定算法来构建人工智能系统,而使用者则基于自身的需求来操作和运用这一系统。尽管人工智能在执行伪造证据的任务时表现出了看似自主的行为能力,但这种能力的根源在于人类的设计和干预。从法律角度看,责任主体的确定是基于行为背后的实际控制和利益获取者。开发者可能因为人工智能系统中存在的漏洞或者不当设计而导致伪造证据行为的发生,使用者则可能因为故意利用该系统进行非法活动而承担责任。这种对人工智能工具属性的明确认定,有助于在法律层面构建合理的责任追究机制,避免因新兴技术的发展而陷入责任界定的混乱。学者们普遍意识到,人工智能犯罪跟传统犯罪不太一样,行为模式更多样,技术手段也更专业。所以,刑事法律体系在处理这类新犯罪的时候,更要全面考虑它的技术特点,针对性地研究和完善相关法律规定,这样才能更好地维护社会秩序,保障公民权益。 2.技术发展的不确定性人工智能发展存在“弱人工智能”与“强人工智能”的明显区分,不同阶段面临的法律问题差异巨大。“弱人工智能”阶段,由于其功能和应用相对有限,主要是在人类的明确指令下完成特定任务,不具有自我意识和主观能动性,因此不存在主体资格争议,现有的法律框架基本能够应对与之相关的各种问题。 然而,“强人工智能”阶段充满了技术上的未知。人类对于人工智能的认知需要发挥主观能动性,不能以强人工智能还没到来为借口,仅仅以现存客观存在来改造世界活动。我们要考虑到当人工智能具备高度的自主性和智能水平,甚至可能产生自我意识和情感时,其是否应被赋予主体资格以及相应的法律地位的问题。而立法在保持保持审慎态度需要有一定的前瞻性以适应技术的发展趋势,但不能过度超前。所以,准确把握技术发展的节奏,在合适的时机进行适度超前的立法调整是应对人工智能法律问题的关键。 3.责任体系的复合性在人工智能引发的法律责任问题上,刑事责任、民事责任和行政责任之间需要相互衔接,形成一个完整的责任体系。对于人工智能侵权行为,产品责任法的适用是一个重要的解决途径。当人工智能产品因设计缺陷、制造缺陷或者警示缺陷等原因对他人造成损害时,可依据产品责任法要求生产者或销售者承担相应的民事赔偿责任。 而对于一些严重危害行为,如人工智能被用于实施犯罪活动,则可以通过共犯理论将责任归咎于人类主体。在这种情况下,人类与人工智能构成共同犯罪,人类因其对人工智能的支配、利用等行为而承担刑事责任。这种复合责任体系针对不同情况、不同危害程度的人工智能法律问题,给出相应的法律解决办法。确保了在面对不同性质和危害程度的人工智能相关法律问题时,都能有相应的法律手段进行规制。既能保障受害者的合法权益,又能有效维护社会的公共秩序和安全。 (二)人类中心主义的底线在人工智能主体地位的学术论争中,无论是支持肯定人工智能具备一定主体地位的观点,还是持否定态度的观点,均将维护人类主体地位视为底线。否定论者从本质层面指出,人工智能作为程序算法的产物,其智能本质是基于数据模型的模拟运算,缺乏对 "人性尊严" 的真实理解能力,不具备人类所特有的道德、情感和价值判断能力,因此不能将其等同于自然人。 肯定论者采取更为辩证的态度,在承认人工智能具有一定程度自主性和发展潜力的同时,着重强调人类必须始终掌握对人工智能的最终控制权。这种控制权被视为守护人类社会基本秩序和核心价值观的关键防线,要求在人工智能的发展过程中,无论是技术的研发方向还是实际应用场景,都需要以人类的利益和需求为导向。如果放任突破人类中心主义的底线约束,放任人工智能脱离人类的有效管控,极有可能引发技术失控风险,对人类社会的生存发展构成不可预估的风险。 六、人工智能刑事治理的体系化路径(一) 构建“人机协同”刑法解释体系折衷主义主张,在刑法与技术治理之间寻求平衡,构建一个动态的刑法解释体系。提出“动态解释论”,认为刑法面对人工智能技术的发展时,应当通过解释学调整应对技术风险,即允许根据技术发展灵活调整刑法构成要件。例如,自动驾驶事故中,刑法可以重新定义开发者和使用者之间的责任分配,避免因技术黑箱问题导致处罚困难。 1.类型化的责任划分与适用标准针对人工智能引发的不同类型刑事风险,建立一个科学合理的责任划分体系和适用标准。 在责任划分上,借助法律条文的明确规定,理清确定各主体的责任范围,清晰界定开发者、使用者、监管者等不同角色作为责任主体的具体情形,确定如过错责任原则、严格责任原则等责任划分原则。在具体确定责任比例时,全面考量过错程度,例如开发者故意植入存在安全隐患的算法与因疏忽导致算法漏洞,二者过错程度不同,责任占比也要区别;同时,也要审视义务履行情况,如监管者是否切实履行日常监督义务等因素。 在适用标准方面,紧密结合现行法律条文的具体规定,参考成熟且具有权威性的行业标准,同时深度解析大量实际案例,从中归纳总结出规律性认识。在故意认定标准上,要判断主体是否明知行为会引发危害结果且积极追求或放任这种结果发生;对于过失的认定,要着重考量主体是否应当预见却因疏忽未预见,或虽已预见却轻信能够避免危害结果。在因果关系认定上,梳理清楚人工智能运行过程中各个环节与危害结果之间的内在联系,明确何种程度的关联可被认定为具有刑法意义上的因果关系。 2. 借鉴国际风险分级制度折衷主义体现的是人机协同的理念,强调刑法应与社会发展同步。这种观点既能平衡刑法介入与行业创新,又能避免技术治理受阻或阻碍技术发展,同时保持刑法威慑作用,保护社会公共利益。这符合未来对人工智能采取什么样态度的发展趋势。欧盟于2020年2月发布的《人工智能白皮书—欧洲追求卓越和信任的策略》,透露了欧盟人工智能将由“强监管”转向“发展和监管并重”,在促进人工智能广泛应用的同时,解决新技术使用所产生的风险问题。2023年6月,欧盟通过了《人工智能法案》。该法案历经数次修缮,已初步形成了一套较为完备的人工智能法律监管框架,其中很多监管手段在我国早有雏形,例如分类分级治理、科技伦理治理、“监管沙箱”机制等,是人工智能领域具有代表性的立法探索。因此,欧盟人工智能监管制度有助于我国构想和塑造人工智能立法,将人工智能技术纳入法律所在的规制环境,把人工智能技术治理置于法治约束之下,从而维护自由、自主和能动性等人类社会性存在的基本条件。 当然,对于人工智能刑事风险的应对上既要立足于当下也要着眼于未来,要研究好人工智能的发展趋势以及刑法对其的防卫。最终我们要达到的是人机融合大于人工智能的效果。因此人工智能犯罪治理需构建“立法前瞻性+司法技术化+治理协同化+伦理前置化”的四维体系。通过动态立法回应技术迭代,依托算法审计强化证据效力,借助国际协作破解管辖权冲突,最终实现技术发展与刑法保障的平衡。 (二)优化治理手段与能力1.构建治理主体多元化人工智能的研发与应用涉及到多个主体,在当前存在的对于主体问题的争议受到极大重视,未来的治理路径要完善主体责任的认定,因此可以构建一个集应该构建由技术提供者或技术使用者、高校、科研机构、政府部门、社会团体等共同组成的治理主体集合,在其中模拟预测可能发生的风险,制定规范准则明确权责的归属,使能够在不同治理主体之间实现灵活沟通,以应对人工智能带来的多重挑战,例如在自动驾驶事故中,若因算法缺陷导致损害,开发者需承担产品责任;若使用者违规操作则承担过失责任,形成“技术责任+行为责任”双轨制,也对人工智能系统本身适用“电子人格”追责如没收违法所得、强制销毁系统,做到有效制止防止危险继续扩散。这是对未来可能实现强人工智能的一个防范。 2.实施动态监测与主动防御在刑事司法中,风险评估在开展犯罪预防、科学量刑及罪犯矫正中发挥重要作用。而针对人工智能引发风险的不确定性,可以运用大数据分析预测高风险人工智能应用场景通过动态监测来实施监管与做出决策。 定期更新风险评估模型的算法和参数,纳入新出现的风险因子,如网络犯罪手段、新型社会矛盾等,并根据社会发展动态调整权重。此外,需通过机器学习技术持续优化模型预测准确率,避免因历史数据滞后导致误判。开发具备实时预警功能的人工智能平台,当监测指标触发阈值时自动推送风险信号。例如,对再犯高风险人员实施电子监控,并通过面部识别、轨迹追踪等技术实时验证其活动范围。同时建立人机协同响应机制,由司法人员对高风险预警进行二次研判,避免机械决策。 通过整合司法机关内部及外部数据,构建动态更新的刑事风险数据库。例如,北京市通州区检察院通过筛查案卡、检索关键词等方式实时收集逮捕案件数据,整合人身危险性、社会危害性等25项评估因素。同时需打通执法司法机关间的信息壁垒,建立跨部门数据共享平台,确保数据的全面性和时效性。 (三)完善刑法及相关司法解释1.完善破坏计算机信息系统罪现代信息网络技术与人工智能技术之间有着密切的联系,《刑法》第二百八十六条规定的对计算机信息系统功能进行删除、修改、增加、干扰,造成计算机信息系统不能正常运行的,处以相应刑罚,此规定贴合当下的治理环境的需要,但在未来人工智能发展的规制仍需补充,才能更全面的维护好网路环境。此时应当适时调整刑法相关规定来堵住犯罪漏洞,让相关司法更好的适用于涉人工智能犯罪领域,规范人工智能的发展方向。例如在现行刑法条文规制不足的涉Chat GPT等生成式人工智能的相关犯罪中,主要表现为Chat GPT等生成式人工智能的介入导致传统犯罪出现了构成要件以外的新特点。对此,我们需要以刑法修正案的形式对传统犯罪的构成要件进行修正,将人工智能时代背景下犯罪的新的行为类型纳入刑法规制传统犯罪的范围之中。如诽谤罪的“公然性”要件等刑法规定较为模糊的罪名之中,通过司法解释加以明确,将以Chat GPT等生成式人工智能为工具实施犯罪情形纳入传统犯罪的构成要件之中。 2. 完善交通肇事罪自动驾驶汽车危害行为的传统犯罪主体与一般交通事故的犯罪主体并无实质区别,只是其主体范畴在一定程度上予以扩张。根据现行刑法第一百三十三条及相关司法解释,交通肇事罪的行为主体被明确界定为那些在从事交通运输或非交通运输活动中,违反交通运输管理法规并因此造成重大交通事故的人员。虽然我们不能以机器来作为这个资格主体,但其归根结底其也是人类智慧的产物,不能够脱离人而独立看待。基于自动驾驶汽车关联主体的复杂性,自动化驾驶系统的研发、生产人员负有安全检测、漏洞修复、维护升级等义务,智能网联平台的运营管理人员负有数据监管、定期维护、排除干扰等义务,驾驶辅助人员和随车安全保障人员负有紧急情况下的后授接管义务等,以上人员因未尽安全监管义务导致发生重大交通事故的,在分清责任的基础上,应当承担刑事责任。因此,交通肇事罪应当将自动化驾驶系统的研发、生产人员,智能网联平台的运营管理人员,驾驶辅助人和随车安全保障人员列入犯罪的“一般主体”,并根据犯罪结果中发挥的作用力大小分配刑事责任。 (四) 进行司法与执法革新“一个时代有一个时代的使命,一个时代有一个时代的问题;时代的快速发展要求刑法理论必须适时跟进。针对当前深度伪造技术可生成以假乱真的视频、音频,用于诈骗、诽谤等犯罪,现有《刑法》第291条“编造、故意传播虚假信息罪”难以规制技术源头;自动驾驶系统缺陷引发交通事故时,责任主体界定模糊,是否考虑可以增设“人工智能事故罪”来作为一个兜底条款,以应对当传统法律无法覆盖时,明确算法开发者、使用者的刑事责任。 基于人工智能技术的风险大、频次高的特点,更应当提前化解潜在的风险来降低相应危害结果的社会危害性。加强司法大数据质量管控,完善跨部门、跨层级、跨业务的司法数据协同共享和智能化服务共建共享机制,支持司法人工智能科技创新和专利、软件著作权申报,切实保护相关知识产权。加强安全保障,防范安全风险。加强司法数据分类分级管理,强化重要数据和敏感信息保护,完善司法数据安全共享和应用模式,通过司法人工智能伦理委员会等机制,综合采用伦理审核、合规审查、安全评估等方式,防范化解人工智能应用过程中的安全风险。 (五)推动人工智能刑事立法人工智能的发展以庞大的数据资源作为支撑,处理数据资源带来的诸如数据泄露、深度伪造、事故责任带来的挑战。要强化对人工智能的立法保障。通过制定法律法规来规范和引导人工智能技术的发展。近年来我国相继出台了网络安全法、数据安全法、个人信息保护法等法律,为人工智能的发展提供了基本法律框架。未来应当考虑更具有问题导向,有弹性的立法思路,通过实践逐步探索形成同发展所需要的法律制度,强化技术安全和伦理规范,如参考欧盟《人工智能法案》的“风险分级”思路,建立更具操作性的分级监管机制。针对高风险领域制定单行法规,细化技术准入标准与责任机制。建立高风险人工智能系统算法备案与可解释性审查制度,要求金融信贷、司法裁判等关键领域人工智能模型公开核心参数与决策逻辑,破解"算法黑箱"导致的追责困境。根据我国对于人工智能的政策支持,或许我们能在不久的未来,推出人工智能法的新法的实现。 (六)国际合作与全球治理如何解决人工智能的引发刑事风险,同样是人类命运共同体的共同课题,需要各国超越意识形态和政治制度的不同,摒弃零和博弈的思维,坚持合作共赢,共同探索新的发展路径,促进人工智能技术造福于人类。 1.构建国际合作框架推动国际规则制定与标准互认:积极参与联合国《人工智能伦理宣言》《布莱切利宣言》等国际倡议,倡导技术普惠与安全发展理念,支持欧盟《人工智能法案》风险分级制度,差异化规范人工智能应用场景;促进中欧合作制定人工智能系统安全评估标准,减少跨境数据流动壁垒。通过国际刑法合作解决人工智能风险,各国应加强合作,共同制定规则,对研发、制造危险人工智能的行为进行追究,将人工智能引导至安全的轨道。在首届全球人工智能安全峰会上,与会各国达成共识,强调通过国际合作来建立对人工智能的监管方式,共同应对人工智能带来的风险。[15] 加强跨境执法与司法协作:通过国际刑警组织等渠道建立数据共享与联合侦查机制,针对人工智能犯罪跨国性特点协同追踪资金流向与技术源头;推动国际司法协助协议修订,明确人工智能生成内容侵权、深度伪造等新型犯罪定罪标准,设立国际人工智能司法案例库促进类案裁判规则趋同。 2.技术标准与伦理规则的国际化通过建立统一的技术标准和伦理规范、加强数据安全和隐私保护、推动公众参与和社会监督,以此构建全球人工智能安全治理的信任基础。联合制定人工智能安全评估、漏洞披露等国际标准,推动全球范围内的技术标准化和伦理规则统一化。建立国际人工智能伦理委员会,定期评估各国人工智能技术的发展及其伦理合规性,推动国际社会在人工智能治理上的合作与共识。 |