(二)执法体制论 党的十八大以来,全国各地稳步推行行政执法体制改革,为严格执法提供有力的体制支撑。
(二)宪法的体系化功能 乍看起来,具体的包容方式无从着手。处理这些交集,是宪法发挥体系化功能的另一个领域。

最致命的是第三点:一定要反对封闭性吗?是否某些部门法必然要求封闭性?这类法律其实不难寻找,宪法和刑法就是唯二的代表。而且它也是无效的,因为这等于否认了宪法的假总则的地位和功能。但由于应法典化之部门法必然拥有完备价值,那么此类部门法一定是一个个相互独立的部分,于是法体系就无法成为一个真正的整体,它一定是破碎化的。法律总则依靠提取公因式而获得。因此,对那些应表现为法典的部门法而言,其法典化的最终结果并不仅是一部法典的编纂完成与施行,而且也意味着本部门法中原有那些单行法的同时废止。
[14]一旦体系性与法律总则的条件齐备,那么所有的部门法、甚至所有的法律法规就可被安排在同一部法典中。但这明显挑战直觉:如果所有法律现象都能法典化,那么是否法典化就毫无意义、更加称不上成就,这等于彻底否认存在有别于法典的其他表现形式。训练法绕过了人工建模,但它的性能依赖于海量数据及其人工标注的质量( 数据+标注) ,而这种质量的保证来源于采样一致性假设,也就是全体采样样本的概率分布和实际采样样本的概率分布之间的一致性。
强力法利用显式表达的知识进行推理来解决问题,所以是可解释的,而训练法利用人工标注的数据训练人工神经网络( 或其他隐式知识表示模型) ,用训练好的人工神经网络来解决问题,不具有可解释性。但问题在于,司法统一就意味着同案同判吗? 未必如此。人工智能技术应用成功所需的封闭性使其在面对非预期输入时具有脆弱性。价值权衡并非计算,无法被量化处理,也无法被代码化。
该原则后来被德国所继受,《魏玛宪法》第 105 条和《德国基本法》第 101 条均规定,不得设立特别法院,不得剥夺任何人接受法定法官审判的权利。一方面,程序公正的核心,即程序自治和当事人获得平等对待原则将遭受侵害。

技术方面的原因主要仍在于前文所说的不确定性挑战。在个性预测中,法官画像的现实主义逻辑可能与实体公正背道而驰,买卖法官的商业偏好逻辑必然侵蚀程序公正的理念。司法裁判在性质上是一种说理来解决纠纷的活动。就程序自治而言,法官大数据画像的应用无疑干扰了司法的独立和司法裁判过程的自主展开。
尽管目前大部分学者都不否认司法人工智能的这种决策辅助地位,但笔者的确有一个担忧: 就像技术从来就不只是技术,而同时也负载着特定的价值追求或意识形态那样,对司法人工智能的过度推崇和迷恋也会在不知不觉间产生一种导向,也即潜在地以技术主义的逻辑压倒人的逻辑的导向。放弃了依法裁判,司法裁判就不是司法活动了。准确说,我们无法说算法歧视是一种真正的歧视,因为当智能系统作这种链接时,它并非有意为之———它压根就不具备人类自由意志意义上的认知和理解能力。当两种形式正义的要求存在张力时,依法裁判要优于同案同判。
强力法与训练法的区别只在于: 在前者那里,哪些输入值( 案件事实特征) 与输出值( 裁判结论) 相关是通过计算机程序或者说人为预先设定的,司法人工智能只负责按照设定的模型来进行计算; 而在后者那里,与输出值( 裁判结论) 相关的输入值( 案件事实特征) 由人工智能通过训练自行学习获得,至于是基于什么模型算法得到结果( 输出值) 对于外部来说则是不透明的。而一旦法定承审法官受到人为干扰而被剥夺裁判某起案件的审判权,而其他法官却因人为因素取得裁判该案件的审判权,那么两者的独立性都将因外部因素的介入而受影响,程序公正也就无法得到确保。

只有在法律所欲追求或评价的要点上具有相同意义,即意义同一性的,才属于同一类型( 同案)。在法治发达国家,法院的案件分配基本都由事先确定的、透明的程序予以决定。
正如德国法学家拉伦茨所说的: 法学所关心的不仅是明确性及法的安定性,同时也致意于: 在具体的细节上,以逐步的工作来实现‘更多的正义。强力法又包含推理法和搜索法两种主要类型,搜索法是在状态空间中进行搜索( 如蒙地卡罗树搜索) ,推理法则是在知识库上进行推理,通常由一个推理机和一个知识库组成,推理机是专业团队研发的负责推理的计算机程序,知识库则需研发者针对不同应用自行开发( 专家知识库)。[32]法定法官原则的功能,一方面在于保障当事人的基本权利,尤其是公平审判权; 另一方面在于确保法官的独立性,防止外部力量干预司法。所以人工智能下棋赢了人类,绝不等于人工智能在对人类更容易的事情上也能赢人类。在本质上,它与购买商品或其他服务的算法推荐系统没有区别。例如,假如( 一批) 前案中( 都) 出现了黑人女性等要素,而待决案件中也存在,智能系统就很可能将它们识别为相关特征,并将前案所确定的法律后果与待决案件链接起来,并将之作为一个通行的法则( 如黑人女性诈骗的重判)。
( 二) 买卖法官的商业偏好逻辑 如果说个性预测对实体公正的挑战只是一种可能、而非必然的挑战( 因为被预测的法官作出的判决可能在实体上是公正的) ,因而是一种相对的挑战的话,那么它对于程序公正的挑战就是一种必然的、绝对的挑战。这可以通过人工智能的运作模型来阐明。
这是法律实施的正义,而非法律本身的正义。因为是依法裁判,而非同案同判,构成了司法的构成性义务。
与同案预测的推导方式不同,个性预测的推导不是从全称命题( 所有先前的类案都是这么判的) 到单称命题( 待决案件也应当这么判) 的推导,而是从单称命题( 法院 A/法官 a 在先前的类案中都是这么判的) 到单称命题( ( 选择了法院 A/法官 a,) 法院 A/法官 a 在待决案件中也会这么判)的推导。所以在司法裁判活动中,哪怕是只需要常识常情作出判断的简单案件,对于人工智能来说也可能是难的,因为归根结底,目前并没有可以全盘模拟人类智能( 对常识常情部分领域加以计算的) 的通用人工智能。
人类具有复合型的知识和复杂的推理能力,而这其中有很大一部分属于通用型的常识常情。由上述不难看出,虽然司法人工智能具有人类法官不可比拟的优势,即数据搜索、比对、关联的迅捷性和准确性,但也具有不可克服的缺陷: 首先是无法应对不确定性。同案预测: 司法统一等于司法公正吗? 同案预测是基于类案裁判之历史数据的预测。几乎没有争议的是司法人工智能对于司法效率的提升,以及对案多人少矛盾之解决方面的重要意义。
( 二) 同案同判即司法公正? 退一步讲,即便司法人工智能能够实现同案同判,那么同案同判就一定意味着司法公正么? 未必如此。2在这几层含义中,最核心的是可预测性要求。
再比如,随着深度学习能力的进一步提高,人工智能系统问题模型覆盖现实层的范围可能会越来越大。现实世界中,一个对象往往存在不可预测的很多变体,试图在建模中穷尽一个预期对象的所有可能应用场景中出现的所有变体,在工程上是不可行的。
由于知识库由人编写,所以是设计者决定了推理法的具体应用的善恶。其中,法院管辖法定是法定法官原则的核心。
具体而言,如果一个应用场景符合以下条件,则该场景对于强力法是封闭的: ( 1) 该场景的设计规范可以用有限多个确定的因素( 变元) 完全描述,而其他因素可以全部忽略; ( 2) 这些因素共同遵守一组领域定律,而这组定律可以用一个人工智能充分表达; ( 3) 相对于该场景的设计规范,上述人工智能模型的预测与实际情况足够接近。同案还是异案取决于判断的视角,而法律上的同案判断取决于法律的视角。同案同判中的同案指的是同类案件,也即属于同一类型的诸案件。个性预测在根本上挑战了司法公正的理念: 司法裁判既应是一种看得见的正义,也应是一种说得出的正义。
这也说明,司法技术永远无法完全取代司法判断,尤其是司法中的价值判断。实质正义涉及实质价值或道德考量。
7而这恰恰是机器算法的短板。相对来说,司法人工智能要面对的理论挑战更为根本性。
例如,目前在机器学习的刑事案例库中,纳入到样本库的基本上都是有罪判决,而中国的无罪判决事实上非常低以至于趋零化。相反,狭义上的司法公正主要涉及司法裁判活动。