季卫东:数据、隐私以及人工智能时代的宪法创新
发布日期:2021-03-20 来源:《南大法学》 作者:季卫东


作者:季卫东,上海交通大学凯原法学院教授。

内容摘要:

本文以大数据与人工智能的正比例关系为线索,分析了信息技术普及和数字经济发展背景下公民基本权利面临的危机以及宪法体制进行创新的契机。过度强调隐私会限制个人数据的收集和应用,使人工智能难以迅速进化;反之,则会造成机器官僚主义的独裁、问责机制的瓦解——这是当今宪法学的一个悖论。笔者认为,随着机器学习能力不断加强,算法黑箱化问题日益严重,以技术制衡技术将成为自然人对机器人进行间接管制的重要方式。疫情防控中智慧网络用于社会基层治理的实例和外国电子政府的经验也证明:把集权式的人工智能算法与分权式的区块链协议结合起来进行合理的机制设计,有可能成为新时代宪法秩序变迁的方向。  

关键词:监视社会;算法歧视;算法黑箱与问责;机器人权;区块链协议;宪法体制创新


目次

一、 序言:算法独裁与数字人权的对峙

二、 人工智能对现代宪法体制的挑战

三、 第四次产业革命与宪法体制创新

四、 结语:在智慧网络中寻找新的平衡点和组合方式


一、 序言:算法独裁与数字人权的对峙

在当今社会,人工智能的应用范围已经越来越广泛,显著提高了生产的效率和生活的品质。当然这种便利性也是有代价的。从现代宪法学的角度来看,这种代价主要是牺牲隐私。把海量数据、图像等个体信息提供给计算机学习和处理,以便对行为进行预测和模仿,因而人工智能系统势必大量吞吐和咀嚼隐私。但隐私正是个人自由的基础。也就是说,高度进化的电子计算机有可能在相当程度上以算法独裁(Algocracy, John Danaher的表述)的方式限制甚至剥夺个人的自由,会以效率、便利、娱乐等不同诱因促使人们不断放弃既有的基本权利。这种代价也包括会思考的机器将大幅度取代人类的行为、冒犯人格的尊严,人机混合实际上正在招致人的动物化、机械化,并在根本规范层面引起了关于人道、正义以及伦理的一系列两难问题。另外,这种代价还包括算法黑箱化导致问责机制的削弱、蜕变以及瓦解,使限制权力的现代法治精神难以落实。
   据报道,到2017年年底为止我国城市设置的摄像头达到1亿7000万个,其后还将大幅度增加。由于不像欧美那样对人脸识别技术进行严格限制,也没有使用图像数据必须经过本人许可的程序,中国根据海量图像数据进行人工智能研究的绩效的确非常突出,已经达到世界顶级水平。这种独特的条件使人工智能系统的深度学习能力超强,并能把有关成果迅速应用于经济和社会治理的各个方面,然而也加剧了算法黑箱化的程度。如果我们希望避免粗暴的数据攫取和算法独裁,希望按照“以人为本”的原则发展一种可信赖、可说明的人工智能,希望防止公权力以智能化决定的名义转嫁或推卸责任的流弊,那就必须注重与人工智能以及物联网、大数据相关的宪法学研究,认真探索在高科技时代切实保障公民基本权利,特别是个人信息安全和隐私权的方式和举措。
   2019年6月,陌陌网络科技公司推出的智能软件“ZAO——逢脸造戏”,通过一张正面照就可以制作各种热门表情包和经典电影片段,曾经轰动一时。但在用户协议中有一个格式条款要求消费者把肖像权完全免费、不可撤销、永久地授予该公司,并允许该公司及关联公司在全球范围内进行网络信息传播、转授权以及再许可,引起媒体一片批评并导致工信部在同年9月采取监管行动。同年10月,浙江理工大学一位副教授对杭州野生动物世界强行采用人脸识别技术进行检票提起诉讼,以维护个人信息安全以及年卡合约的效力。上述现象说明,中国社会对任意收集和使用个人图像数据的风险意识提高了,人工智能时代的宪法权利正在成为非常突出的社会问题,因而我们有理由把2019年视为中国“数字人权元年”。

二、 人工智能对现代宪法体制的挑战

(一) 大数据与人工智能的正比例关系

马云曾经把数据比喻为21世纪的“石油”,即具有最重要经济和社会价值的生产资料。要想从海量数据中搜寻出有用的信息、甄别和防控风险、实现数据内在的价值,就必须改进网络架构、提高数据处理能力,这就需要强大的计算机信息处理系统。因此,第四次产业革命势必以人工智能为基本特征,造就一个万物互联互通、靠数据驱动、智慧网络化的社会。一般而言,人工智能是以数据为养料而成长的技术。离开海量数据,人工智能就无法发展和提高预测能力。所以大数据与人工智能的发展之间存在显著的正比例关系:数据的规模越大、质量越好,往往人工智能的功能就越强、预测的精确度也就越高。这种关系在预测犯罪或者开发有效的疫苗和药品等应用场景中表现得尤其清楚。现阶段的中国,人口规模(约14亿)、网民人数(约8亿)以及每天产生的数据量(约900兆字节)均为世界第一。由于国情和社会基础设施方面的某些特征,中国的互联网金融、网上购物、外卖快递、移动支付、“一卡通”系统非常普及,为数据的收集和应用提供了各种各样必要的场景和充分的条件。根据2018年的统计,中国大数据产业相关人才的规模全球第一,占比59.5%,比居第二位的美国高出37.1个百分点。更值得留意的是,中国数据的公有化程度极高,大约70%以上的优质数据资源由国家掌控。这种状况有利于打破各种局部疆界,充分调动数据资源来发展产业经济,也势必促进人工智能在国家治理和法律制度运作方面的广泛应用,但也把个人数据安全和隐私保护问题以更加尖锐的形式呈现出来。

(二) 基于评分系统的身份原理与警察国家

例如作为第三方征信机构的芝麻信用,利用海量的各种数据(特别是阿里巴巴的电商交易数据和蚂蚁金服的互联网金融数据,也包括政府数据)构成个人数字化行为履历,分别从身份特质、行为偏好、履约能力、信用历史、交友关系等不同维度进行信用评分。在这里,950分为满分,750分以上为信用优良,550分以下(底限是350分)为缺乏信用。信用优良的用户可以享受很多优惠,如租车、住酒店不必交押金,网购可以先试后买,办理某些国家的旅游签证不必办理存款证明,租房可以零押金、先入住后付款,看病可以先诊疗后付费,还有信用婚恋,等等。据报道,这个征信系统的登记人数已经达到两亿,到2020年还将落实全民义务登记社会信用系统的计划,形成空前规模的“评分社会”或者说等级化的“排序社会”。最高人民法院已经与芝麻信用签署合作协议,形成了一种联合惩戒失信行为的机制——把判决不执行等违法行为纳入信用评价范围,通过各种应用平台限制失信被执行人的各种经济活动和生活方式,借助大数据强化债务履行和判决执行。
   众所周知,随着改革开放的进展,中国人的财产关系日益复杂化。由于社会信用体系不太完备,从20世纪90年代开始,债权回收和判决执行难的问题就变得越来越突出。在这样的背景下,最高人民法院借助大数据、人工智能以及芝麻信用的征信资料来追查和惩戒被执行人的失信行为当然是必要的。但不可忽视的是,在官民一体化的联合惩戒机制形成和加强之后,如果没有适当的规范制约和数据安全保障,中国有可能会以评分系统为媒介迅速转变成史无前例的“监视社会”,个人的权利很容易受到这样或者那样的侵犯。例如,芝麻信用的评分和失信记录会作为数字化档案保存五年,对家庭生活的各方面,包括就学、就业、晋升、入保等,产生深远的、复杂的负面影响。其结果,可能会使得每个公民都有一个由大数据和人工智能构成的数字人格如影随形,在不知不觉中影响其命运;可能会使在现代化过程中被否定的身份原理在数字人格的基础上重新复活,事实上把每个公民作为“网络人”分为三六九等;可能会在事实上使公民失去悔过自新的机会(为此,《欧盟通用数据保护条例》规定了个人信息删除权、被遗忘权作为救济手段),导致社会的阶层之间更加缺乏流动性,特别是造成底层固化、形成“虚拟贫民窟”;可能会按照某种分类法或群体特征给公民个人贴上某种特定的标签,造成在所谓“新集体主义” 框架内的身份原理和算法歧视。例如美国有的人工智能系统把黑人图片错误地识别为大猩猩,对亚裔族群在教育方面实行价格歧视,等等。
   物联网、大数据以及人工智能的“铁三角”,在某些场合还可能剥夺公民对个人信息的自我处分权(隐私权)、人格尊严以及法律面前平等的权利。例如常见的电商和网络平台把个人消费信息作为学习数据使用,分析行为样式并发布对标广告,这是否已经构成对隐私权的侵犯是需要认真考虑的。特别是遗传信息包含那些与生俱来的特性,一旦由人工智能进行解读和外泄就很容易影响个人入学、就业以及加入商业保险,大幅度减少某些公民的人生机遇和选择空间。尤其是保险制度本来就是基于不利结果发生的偶然性而形成的互助机制,如果人工智能通过各种数据能够准确计算和预测特定个人未来的风险,就势必要把入保申请者分成不同类型进行差异化处理,导致人与人之间的不平等待遇,有些公民可能遭受歧视、被排除在外,这就势必从根本上动摇保险制度通过偶然性分散风险的逻辑基础。在一定意义上也可以说,如果在制度层面容许那些基于来自父母遗传信息的差别,其实就是在向封建时代的血统观、身份原理倒退。实际上,现代宪法的根本原则是维护公民的自由和平等,绝不允许把个人自己无法选择、无法纠正的事作为不平等待遇的依据。

(三) 现代宪法体制的应对举措及其困境

鉴于上述问题在各国发展的趋势,欧盟《通用数据保护条例》(2018年5月25日实施,General Data Protection Regulation,简称GDPR)从维护现代宪法体制的立场出发,特别强调了对个人尊严和公民基本权利的保障,被誉为人工智能时代的新人权宣言。这个条例能直接约束各加盟国的立法,具有根本规范的属性,同时对欧盟各国向其他国家转移数据的业务也能发挥约束效力。为了防止上述侵犯个人数据和隐私、个体尊严以及机会平等性的流弊,欧盟GDPR第21条承认个人享有对基于大数据的人工智能档案或者数字行为履历提出异议的权利(反对权),如果数据管理者不能出示充分的正当性根据,必须中止电脑化处理。第22条还承认数据主体享有不服从那种仅根据人工智能而自动化作出的决定的权利,即公民享有对人工智能纯自动化决定的抵抗权,要求必须有人介入和监控计算机的信息处理。为了防止这种公民抵抗权被化解,GDPR明确指出数据管理者不得通过假装有人介入的方式来规避第22条的约束,确保人工智能不能单独地、自动化地作出决定。该条例第13条第2款还特别强调了透明性原则,要求数据管理者必须对数据主体履行信息公开的义务,并且所提供的信息、程序、规格、算法都必须能为主体所理解,是可以清楚说明的。
   但是,不得不承认,欧盟《通用数据保护条例》第13条第2款和第22条在实施中会碰到一些前所未有的难题。规定必须由人介入和监控计算机的运作,其宗旨显然是要确保人工智能的可控性。然而信息处理系统越复杂就越容易出现操作的失误,当系统运作速度极快时,人也很难对情况进行认识、预测以及掌握。何况系统与系统之间会产生目的冲突和互动,在存在机器学习甚至深度学习的情况下,不同人工智能系统之间的互动关系势必极其复杂而变幻莫测。而且机器学习的效果越精准、深度学习的功能越强大,算法的含义就会变得越来越难以理解和说明。例如,2017年5月中国最高段位的围棋选手柯洁与AlphaGo对弈以零比三失利,后者留有的五十份自我对战棋谱让所有专业棋手都觉得不可思议,从专业知识和经验的角度他们无法参透人工智能在机器学习之后根据概率进行这种貌似“臭棋”走法的缘由。但正是这些出其不意、攻其无备的走法使得AlphaGo大获全胜。这正是人工智能算法可能变得无法理解和无法说明的一个典型例证。在这种情况下,人对人工智能系统运作的介入和监控究竟有多少意义呢?因此,在自然人无能为力的地方,只好以人工智能来监控人工智能,通过不同的技术进行互相制衡也许是解决上述难题的一条思路。
   在无法理解和无法说明的场合,算法是黑箱化的。这样的算法黑箱化,实际上也使人工智能具有了不受约束的权力性,使在现代民主法治国家具有关键意义的问责机制名存实亡。立法机构的决定、司法机构的判断、行政机构的具体处分行为都需要给出明确的理由,以便据此防止主观任意性,给相对人以申诉和复议的机会。如果人工智能进行的预测、提供的结论无法说明其理由,就无异于用“莫须有”的名义来作出决定或者进行案件审理和制裁,且无从追究决定者是对还是错的法律责任。可想而知,欧盟《通用数据保护条例》明确规定不能让人工智能独自进行自动化决定的主要原因就在这里。但是,随着人工智能在国家治理和法律制度运行中广泛渗透以及算法难以理解和说明,在很多应用场景下人们其实很难有效监控人工智能;相反,人工智能倒很容易成为人们转嫁决策风险、逃避问责的一种重要手段。毋庸讳言,在中国的“智慧法院”建设过程中已经或多或少出现了这样的偏颇。另一方面,应用人工智能对大数据进行分析和学习,可以充分掌握社会心理和舆情的变化,对不同群体以及个人的行为进行精准的预测,这就会使国家对社会的监控能力和支配能力大幅度提高。在这种状况下,如果不能相应地提高民主问责的水准,权力滥用的危险也将渐次增加。然而对人工智能辅助的决定进行民主问责,势必要求对算法的说明和人们对算法的理解,可如前所述往往具有困难。于是,在这里出现了一个算法与问责互相纠缠的悖论。

三、 第四次产业革命与宪法体制创新

(一) 现代宪法精神与人工智能发展的现实需求

欧盟《通用数据保护条例》面临的更大挑战还来自第四次产业革命本身,来自对人工智能发展的强劲需求。按照现代宪法精神强调隐私权和个人信息保护,或多或少会引起虚拟空间的割据和碎片化,妨碍数据的大规模收集和应用,从而妨碍以数据为养料的人工智能系统以及智慧网络化社会的快速成长。站在公共利益或者社会福利的立场上来看,收集更多的数据、进一步加强人工智能的预测力显然是合乎理性的选项,有助于大幅度提高经济增长的效率,因此有必要通过让个人分类发展的“新集体主义”方式来实现整体的最优化。但是,如果接受这样的观点,那就意味着现代宪法体制的退让,有可能损害个人自由。
   实际上,现代宪法体制也是产业革命的结果。如果从这个角度来看,第四次产业革命应该也有可能在相当程度上引发宪法体制的创新。如果试图在现代宪法体制下的人权保障原理与数字经济的迅猛发展这两者之间寻找适当的平衡点,那就需要深入探讨某种更适应人工智能时代需要的宪法体制,进行法治的范式创新,而不是简单地按照个人自由主义的标准来限定智慧网络化社会的变迁。但是,前面已经提到的各种问题又表明,如果不能切实保障个人信息安全和隐私权,人工智能的发展就很有可能误入歧途,破坏“以人为本”的原则,侵犯个体的自由和安全,造成机器官僚主义的冷酷统治和无所不在的恐怖。因此,当今宪法秩序演化的基本方向应该是把中国宪法第33条第3款“国家尊重和保障人权”的原理嵌入智慧网络之中,达成效率与公正、理性与温情之间的适当平衡。

(二) 人工智能时代的社会治理方式创新

怎样才能达成这样一种理想的平衡状态?在这个方面,所谓以人工智能来监控人工智能、通过不同的技术进行互相制衡是否具有现实可行性?在对新冠病毒疫情进行防控期间,中国广泛应用互联网和信息沟通技术(ICT)进行社会治理,提供了颇有启迪意义的试行经验和教训。2020年,猛烈冲击全国各地的新冠病毒肺炎疫情,使得隔离突然成为一段时期内社会日常生活的特征,智慧网络化的技术和平台在汇集和分配信息、资源以及物资等方面发挥极其重要的功能。对疫区旅行者和疑似患者的排查、对隔离人员的监控、对救治病例的分析、对疫情发展的预测,都需要借助大数据和人工智能等科技手段,促进以电子政府和网络型政府为特征的国家治理方式创新全面提速。在这里特别值得重视的是区块链技术的广泛应用。例如上海市静安区临汾街道根据电子政府方案,在2020年1月启动了基于区块链协议的社区治理平台,推动十五分钟生活圈内的自治,试图在数字真实可信的基础上实现行政活动全程留痕和监控以及多方协同。在新冠病毒疫情防控中,这个平台又嵌入了预约登记和购买口罩等功能,显示了区块链技术在分散化、平面化社区治理方面的优势,体现了“一网通办”的制度设计思路。还有北京市的博云视觉科技有限公司开发的“智慧社区疫情防控网格化管理平台”,可以进行人体测温快速筛查、未戴口罩预警、陌生人员预警、进出记录管控、异常人员聚集预警、疫情信息采集统计和分析等,以适应春节后返工中社区的精细治理和可视化服务。
   因为疫情防控的紧急状态,几乎所有城市和乡村都按下了中止键,施行了“空城计”,人人都进入“闭门自省”的状态。这样的体验以及由此产生的需求也许会为中国从零开始进行制度的理性设计提供一个重要的历史契机。如果说在西欧国家现代化进程中,“待从头收拾旧山河”的理性设计方案表现为关于人权保障、法治国家的社会契约论,那么不妨认为在当今中国,这种理性设计方案主要表现为关于信息公开、电子政府的互联网协议,可以包括人工智能技术和区块链技术这两个阶段或者层次。如果上述命题真的能够成立,那么全国停顿就不是多此一举,李文亮的牺牲也就不会化作无谓的泡沫。首先来看基于人工智能技术运作的电子政府。电子政府的基本目标或者特征是平面分散、互联互通、公开透明、数据安全,在价值体系上体现为平等、共享、协同、过程等偏好或者思想取向。不言而喻,通过把互联网的各种功能应用于行政和政治,政府的定位和作用势必有所变化,向群众提供公共服务的数量、质量、效率以及群众满意程度都会显著提高。
   例如爱沙尼亚的电子政府计划是以数字身份证为核心拟订和实施的,嵌入的芯片里除了有持证人的基本信息外,还有两种证明资料:一种用于认证,另一种用于签名,凭各自设定的暗号登录使用。该证在公民中的普及率达到90%以上,所以大量的行政服务项目通过数字身份证来执行。公民通过数字身份证进行在线投票、缴纳税金、享受社保、进行体检和接受医疗——所有就诊记录和诊断档案都可以一证调阅,并自我决定是否向亲属或医生公开。交通和旅行也是一卡通,数字身份证可以作为乘车券或支付卡使用。数字身份证还可以用于网上银行的开通和利用、水电煤气费用的支付、学校教育(选课、提交作业、管理成绩单、与教师联系等)以及不动产登记、垃圾处理、环保等各种公共事业的服务项目,这就使行政与物联网密切联系起来。通过数字身份证,爱沙尼亚公民可以从全球不同居住地参加选举投票。通过电子居住制,非公民也可以取得数字身份证从全球不同国家向爱沙尼亚投资并申请设立公司。
   在中国的新冠病毒疫情防控中,杭州市从2020年2月11日起利用大数据和互联网技术推出的“健康码”,通过不同维度答问打分的方式把居民分成三种类型进行区别化安排。持绿码者可以在市内自由通行;持黄码者要进行7天以内的集中或居家隔离,在连续申报打卡7天都正常后转为绿码;持红码者要进行14天以内的集中或居家隔离,连续申报打卡14天都正常后转为绿码。对于填报不实的,可以通过大数据进行鉴别,查实后一律定为红码,情节严重的还要采取惩处措施。这也是一种具有特定目的和时效性的数字化身份证。要使上述机制顺利运转,必须确保虚拟空间的安全。为此,爱沙尼亚的经验是建构了无钥签名的基础设施(KSI),使信息的记录和检索都可视化,确保政府记录的正确性以及合规性。这是借助区块链协议保证数据真实性的框架,不需要管理者,不需要对密钥进行管理和更新的手续,有利于提高行政效率,降低社会管理的成本。所以,接下来我们再来考察基于区块链技术运作的电子政府。

(三) 基于区块链协议的电子政府与人权保障

众所周知,没有信赖协议是信息互联网的主要缺点。以比特币和P2P方式为基础的电子通货系统,实际上构建了一种分散式信赖网络,人们无须第三者或者权力的介入,通过直接的认证合作就可以达成信赖协议,也就是说使网络本身能保证相互信赖。在这个意义上可以说,区块链技术对于社会治理方式具有革命性意义。借助智能技术运作的电子政府,的确可以运用互联网和大数据为公民提供大量的方便,但与之相伴的代价是个人隐私的丧失,而隐私正是自由和自治的堡垒。区块链的本质是把个人隐私黑箱化,从而可以抗衡借助智能技术的外部操作。也就是以区块链技术实现隐私的黑箱化,从而制约人工智能技术,并力争改变黑箱化的算法。换个角度来看,如果说智能技术可以让信息处理系统的终端工作自动化,那么不妨认为区块链技术能使系统中枢工作也自动化。因而人工智能技术与区块链技术之间存在着相反相成的关系。为了确保个人参与同意的计算和共识的达成,区块链还以挖矿方式提供了充分的诱因,用以解决交易成本问题。在这里,利己的行动本身就可以构成公共利益的一部分,具体的智能合约就可以明确各自的权利义务。
   电商、物联网以及移动通信系统在疫情防控的隔离状态下发挥了积极作用。由此也可以证明,通过大数据、人工智能以及信息合作提高业务效率、在公共服务中充分利用物联网、借助信赖网络突破地域和行业的樊篱等做法是必要的,也是可能的。结论就是疫情防控的经验已经显示行政和政治的区块链化势在必行。
   区块链技术有可能形成社会治理的“路路通”格局。例如爱沙尼亚的电子政府计划利用区块链构建了所谓“X-road”的数据共享系统,把各种数据库和智慧城市项目融通无碍地联结在一起,使行政服务和民间服务能够互相衔接兼容,极大地提高了公共活动的效率,极大地方便了居民的日常生活和行动。前面提到的数字身份证系统并不是由国家集中管理,而是分散式的。包括出生证明、户籍、护照、驾驶证、投票资格等各种公共证书都用加密化的哈希值(联想配列)来表示,在区块链上进行分散管理和使用。在这里,可靠的数据安全技术保障了信息的正确性和私密性;数据查阅和更新的履历是可以确认的,公民可以及时获悉是谁接触了自己的个人信息;大量的作业是自我完成的,所以可以显著减少行政成本,同时还可以保证公共证书的正当性。区块链技术还可以用于基层选举。提供参与诱因的挖矿方式,意味着区块链可以通过制度设计吸引人们对社会问题产生兴趣、发表意见、根据共识制定更有说服力和执行力的政策。由于电子货币的密码确保不能重复使用,能够有效地防止重复投票行为,所以区块链技术可以建构透明化的、可靠的选举系统。通过在线会议、意见广场等方式,区块链技术也可以应用于协商民主,而不限于分散化投票。通过数据的可视化、可追踪性,区块链技术还有利于落实问责原则。
   总之,人工智能技术的核心是程序算法,强调数据汇聚和预测精确性,侧重于法制的统一化和行政效率;与此相映成趣,区块链技术的核心是网络协议,强调的是管理分散和隐私权保障,侧重于法制的透明化和网络共识。这两者互相制衡的同时又互相补充,有利于电子政府的健全发展。前面曾经指出,以人工智能监控人工智能,通过不同技术进行制衡也许是解决算法黑箱化难题、根据人工智能时代的现实重构宪法体制的一条思路。在这里我们看到,人工智能技术与区块链技术之间相反相成的关系,为这条思路提供了现实可行的例证。

(四) 机器人权与人工智能的责任主体资格

在探讨人工智能时代的宪法秩序创新之际,究竟应该怎样定位机器人也是一个很重要的问题。一般而言,生产率提高、经济景气上扬势必导致就业率的攀升。但是,从2000年开始,美国的经济效益越好,雇佣人数反倒减少,两者之间的差距不断扩大。不言而喻,其原因在于机器人取代自然人从事生产活动。根据麻省理工和波士顿大学的研究报告,每千名工人拥有的机器人数量增加1个,就业率就会下降18—35个百分点、工人薪酬也会下降25—50个百分点。鉴于这种情况,2017年2月17日,比尔·盖茨在接受数字媒体Quartz采访时曾经提出向机器人课税的建议,试图通过再分配的方式解决失业和社会福利问题。从法理学的角度来看,既然机器人可以成为责任主体,那么当然也应享有相应的权利——这正是机器人权论的主张。赋予智能化机器以法律人格乃至人权貌似一种迂阔之见,但其实是持之有据、言之成理的;特别是最近出现了用青蛙细胞生成的“活体机器人(Xenobots)”,作为一种可编程的有机体,使得机器与动物生命之间的界限已经非常相对化。随着医疗科技的飞速进步,实际上人的身体或脏器的相当部分都可以由人工产品构成,人机混合状态日益普及,这就使得机器人权的讨论具有越来越强的现实意义。2019年8月,在Youtube网站上发表视频的不少人发现,算法会自动删除机器人对战的视频。这是否构成机器人自我认知的征兆?在出现诸如此类的“机器觉醒”现象,特别是出现自律型人工智能之后,机器人的权利问题其实与动物、胎儿、植物人的权利问题具有类似性;在机器人的能力超过自然人的情况下,赋权的理由实际上也就变得更加充分。
   一旦承认机器人权,随之而来的问题就是如果人工智能具有与人同样的能力、资格以及精神权益,中国宪法第33条第2款规定的法律面前的平等性是否也包括人工智能?鉴于猴子拿起傻瓜相机自拍和人机对话系统的歧视性笑话等实例,人工智能是否也可以享有宪法第35条规定的言论和表达的自由?现在已经有很多自动作曲、自动写诗、自动绘画的智能软件,由此产生的作品能否享有著作权?权利主体是谁?能否承认对这类作品的垄断性保护?如果承认的话,保护期间设定多久为宜?在中国,人工智能在司法和法律服务方面的应用已经非常广泛,并且得到政府的鼎力支持。在现行法律框架下,人工智能代行相当部分的法律业务是否违反了法官法、检察官法以及律师法?如果人工智能可以被赋予法律人格,那么可否也被赋予法官、检察官以及律师的任职和执业资格呢?如果回答是肯定的,就必须考虑设定什么样的准入门槛。关于人工智能系统的法律人格以及自然人和机器人在人格上的平等性,是数字化时代宪法学有必要认真讨论的一个重要问题。

四、 结语:在智慧网络中寻找新的平衡点和组合方式

在上海召开的2019年世界人工智能大会法治论坛,通过了《人工智能安全与法治导则》,从算法安全、数据安全、知识产权、社会就业和产品法律责任这五个方面明确了相关的原则、政策和法律制度安排,体现了硬法与软法相结合的特征。关于算法的可理解性和可说明性,该导则强调对算法进行技术评估以及算法的技术伦理,要求构建软件质量和算法安全的检测体系。导则鼓励人工智能数据开放性保护,还对数据隐私问题给予特别关注,强调对采集和使用敏感个人数据的人工智能企业或行业加强法律的和行政的监管。在这里,不是像欧盟《通用数据保护条例》那样赋予数据主体提出异议、进行抵制的自由权,而是进一步加强法律和行政的监管,体现了中国传统治理方式的特征以及宪法观的差异。导则也注意到关于机器人纳税之议,提出了面向人工智能开展收入调节,提高社会二次分配的合理性和精准性的命题,但没有把机器人作为责任主体。中国倡议的做法是科学分配人工智能侵权的法律责任,要求人工智能设计者、生产者、运营者、使用者承担法律主体责任,并按照过错程度进行分担。在这里可以发现,导则还没有明确地提示处理各种规范冲突的元规则以及对价值进行排序的标准,这是一个缺憾。
   人工智能在本质上是规则嵌入的系统,可以形成硬法的支配、创造全程留痕的条件,因而有利于加强对公权的制约。在这个意义上,人工智能可以贯彻现代宪法的精神。但是,人工智能的能力提升有赖于尽量增大数据的规模,势必会突破围绕私权的屏障壁垒,在相当程度上侵蚀隐私和个人尊严,甚至动摇自由的根基。另外,以对大数据的机器学习为背景,尤其是在智慧网络化的社会条件下,对算法的理解和说明将变得很困难,并自然导向算法黑箱化以及算法独裁。算法黑箱化实际上会在不同程度上妨碍对权力问责,同时也会助长回避责任和转嫁责任的不良倾向。数据偏误和算法歧视还会招致对现代宪法原则的抵制,削弱对公民基本权利的保障。
   如果希望发展人工智能、提高其预测能力,同时又尊重和保障人权,就需要在算法与宪法之间达成适当的平衡,从而推动宪法理论和法治范式的创新。新型宪法观树立的一个关键是形成人工智能技术与区块链技术之间制衡的机制,并不断寻求科学理性、经济效率与人格尊严、社会公平之间的更优乃至最优的组合方式。

 


责任编辑:景杰婷
本站系非盈利性学术网站,所有文章均为学术研究用途,如有任何权利问题请与我们联系。
^