[50] 上述中国宪法学研究尽管存在差异,但在接受社会事实命题的倾向上基本一致: 第一,他们都主张宪法概念,可以还原为或依赖某种社会实际存在、发生的权威性事实。
宪法监督意义上的法规备案审查之目的与法律案的合宪性审查虽有重叠,如确保宪法权威、维护法治统一,但在根本上是为了保持中央政令畅通,维护党的权威。该法第三章为全国人民代表大会各委员会,其中第35~37条具体规定了包括法律委员会在内的各委员会的职责和权限。
2018年备案审查工作情况的报告关于拟废止收容教育办法就是一例[33]。[4]截至2017年12月上旬,第十二届全国人大常委会办公厅共收到报送备案的规范性文件4778件,其中行政法规60件,省级地方性法规2543件,设区的市地方性法规1647件,自治条例15件,单行条例248件,经济特区法规137件,司法解释128件。(六)审查目的不同 宪法和法律委员会法律案审查的目的是为维护宪法权威,确保法治统一、提升立法质量、促进民主立法科学立法,从根本上是为了坚持党的领导,实现良法善治,推进国家治理体系的现代化。废止与撤销是有区别的,废止是制定机关自行废止,撤销是上级机关予以撤销。2018年6月22日,全国人大常委会以决定这一立法方式明确宪法和法律委员会在统一审议法律草案的前提下,增加五项职能。
参见沈春耀.全国人大常委会法制工作委员会关于2018年备案审查工作情况的报告[J].全国人民代表大会常务委员会公报,2018(1):126. [36]沈春耀.全国人民代表大会常务委员会法制工作委员会关于2018年备案审查工作情况的报告[J].全国人民代表大会常务委员会公报,2019(1):328. [37]沈春耀.全国人民代表大会常务委员会法制工作委员会关于2018年备案审查工作情况的报告[J].全国人民代表大会常务委员会公报,2019(1):331. [38]《立法法》第 20 条规定:列入全国人民代表大会会议议程的法律案,由法律委员会根据各代表团和有关的专门委员会的审议意见,对法律案进行统一审议,向主席团提出审议结果报告和法律草案修改稿,对重要的不同意见应当在审议结果报告中予以说明,经主席团会议审议通过后,印发会议。许崇德教授是负责起草八二宪法国家机构一章的专家,以其对该部分的熟悉程度及对宪法的透彻理解,不可能看不到《立法法》的规定。有研究指出,以美国为代表的算法治理方式愈来愈强调算法决策的透明度原则,要求算法决策者和使用者披露算法决策的具体过程,并试图设计一系列事前检测、验证以及事后审查的制度,其目的主要在于通过这些制度措施尽可能地平衡算法精英与普通个人之间的数字鸿沟,消除技术劣势一方对优势方的依附性,矫正算法自动化决策过程中出现的权利失衡。
这两个问题归结起来,仍是回归到人的价值的轨道上来解决的问题。就人工智能而言,尊严构成了技术实践的制约性伦理要素。人类社会的发展不应拘泥于人类社会过往的状态,否则,那将使得人永远沉浸在过去的漩涡中而难以自拔。(四)特定重大领域应慎重应用算法决策系统 鉴于算法决策系统的运用可能存在歧视性等风险,对于特定重大领域应用算法决策或辅助决策应慎重考量。
英国议会下属委员会的报告《英国人工智能发展的计划、能力与志向》指出,如果数据库准确地反映了社会中不公平的一面,同样可能产生歧视。这些介于明言与暗含之间的因素凝聚着日常生活与社会生活的微观政治结构,并不可避免地负载了复杂的利益分配、价值取向和权力格局。
第四,算法黑箱使得算法歧视变得隐秘而难以觉察,产生了歧视识别危机,[10]这就对平等权的实现设置了难以逾越的技术鸿沟。有学者便一针见血地指出,算法社会并不是理想的社会,算法社会只能使人的智性过度发展,从而使人丧失人性中更为宝贵和自然的组成部分,如心性和灵性。据研究,算法决策系统使用超级推理,能够以微妙而有效的方式塑造用户的感受和行为,破坏个人的独立判断力。[31]参见前注[12],刘志刚文。
报告指出,仅因为算法是数据驱动的就认为算法是客观的,实乃美丽的误会。《德国基本法》第1条便明确了尊重及保护人的尊严是所有国家机关之义务。在复杂角色要求的交织下,公民、社会与国家之间的互动也会对国家责任的妥适承担提出多元化的诉求。(一)算法歧视对人的物化有悖人是目的的伦理要求 效益最大化导向的算法目标设定可能忽视了人是终极目的这一命题,背离了人的尊严的价值内核。
算法权力并不把人们当成主体来对待,而是作为可计算、可预测、可控制的客体。算法治理(Algorithmic governmentality)是不允许主体性处理(subjectivation processes)的。
旧金山市政府在2019年5月14日通过《停止秘密监视条例》,禁止当地政府部门如警察局、治安办公室、交管部门使用人脸识别。算法歧视便是算法权力的崛起和异化所表现出来的对个体的基本权利和人的价值的漠视。
尊严的内在价值性被界定为人的不可侵犯性(inviolability),以及附属于该属性的辅助性价值内涵和限制因素。[34]保障人的主体性地位,不只是强调抽象意义的人或者是人类整体,更是直指一个个独立的个体应受尊重的权利。人类极易受到自动化偏见的影响,即使认识到可能另有选择,其也更倾向于服从计算机的判断。在算法决策的黑箱中,一般的对象群体对于算法决策的原理、事实根据、理由均不得而知,只能被动地接受算法决策的后果。[32]这意味着不允许人被当作客体、被物化,更不允许人受到非人的对待。[4]参见颜厥安:《人之苦难,机器恩典必然看顾安慰:人工智慧、心灵与算法社会》,载《政治与社会哲学评论》(台北)总第66期(2018年)。
不过,它却指出了一个不争的事实,算法始终是不会把人当人的,在算法系统里,只有数据,并没有人的存在,更没有对人的尊严的价值判断。人之尊严作为公共信念的核心内容进入法律,为整个宪法秩序提供形而上学的基础。
然而,归纳的逻辑本身就可能存在偏差,它试图将事实上升为规范,挑战了传统的规范—事实的二分法则。[11]这是因为人类社会本身就存在歧视,如果算法中的数据准确映射了社会客观现实,仍然会产生歧视。
行政决策中人类形式上的参与无法掩盖算法作出实质决策的真相。问责机制旨在明晰问责主体、问责范围和问责标准,从而规范公权力使用算法决策或辅助决策。
[54]平衡算法权力与公共权力及个人权利的力量对比关系,有助于规制算法权力。2019年10月8日,文化和旅游部公示了《在线旅游经营服务管理暂行规定(征求意见稿)》,其规定,在线旅游经营者不得利用大数据等技术手段,针对不同消费特征的旅游者,对同一产品或服务在相同条件下设置差异化的价格,利用大数据杀熟的价格歧视将面临最高五十万元的处罚。进入专题: 算法歧视 宪法价值 。[46]人工智能中人的尊严第一层含义体现在援引尊严的内在价值并在技术实践中寻找归属价值和开放价值,如果技术的归属价值和开放价值促进了尊严的内在价值,那么技术就具备了合理性。
算法歧视实质上就是缺乏正当性基础的差别对待。将人简化为数据很可能忽略了人的复杂性,存在歧视的可能,而对象群体很可能并不知晓歧视性后果的发生。
在算法系统中,每个个体都被转化为可计算的数据,相对于大数据而言,个体的数据是微不足道的,而在宪法面前,每个个体的权利保护又都是不可忽略的。[51]这便是国家对算法歧视进行立法规制的有益尝试,随着算法系统的广泛应用,立法规制的条文也将会逐步丰富和完善。
[38]李林容:《网络智能推荐算法的伪中立性解析》,载《现代传播》2018年第8期。在法律秩序中,人之尊严既是具有绝对性的宪法价值,也是一种具有相对性的宪法权利。
企图利用过去来定义未来的算法决策逻辑背离了超验的伦理价值,缺乏对社会实在的批判性精神,最终可能会构成对人的灵性的消磨以及对人类社会发展的束缚。[9]当算法被描绘成合理、客观的决策工具却隐含着歧视时,受算法决策影响的对象群体将更难以获得权利救济。(三)算法权力的异化有减损人的价值之虞 算法歧视的发生并不是偶发的个案,背后是算法决策应用的系统性风险,从根源上而言,是作为新兴技术力量的算法要求改写既有的权力配置格局所引发的。[36]参见前注[29],王旭文。
参见郑玉双:《人的尊严的价值证成与法理构造》,载《比较法研究》2019年第5期。除了算法的数据收集可能不全面、不完整或存在错误外,算法本身也并非纯粹客观的数据处理手段,其存在诸多不透明的因素。
因此,有必要重塑人的尊严的价值内涵,规范算法应用的价值取向。决策依赖算法,算法依赖数据,数据一定程度上是对人物化的结果,过度依赖算法决策、忽略人性的多元复杂性势必会减损人的尊严的价值。
[29]人的尊严不可侵犯原则不仅是宪法基本权利规范体系之出发点,同时构成宪法限权规范及宪法整体制度体系的基础性价值原理,进而构成一国整体法律规范体系的基础性价值原理。(三)算法歧视排斥了人与社会发展的多样性 算法歧视性后果的发生,从根本上排斥了人与社会发展的多样性,缺乏必要的包容,背离了人的尊严的价值意蕴。