用投票的几种方式来解决环境标准问题,在我国目前是否可行在哪一层次(村、乡、县、市、省、全国)更可行为什么

原标题:No.1498 沈伟伟 | 算法透明原则的洣思

本文原载于 《环球法律评论》2019年第6期(人大复印报刊资料2020年第3期转载)感谢“环球法律评论”公众号授权转载!

作者:沈伟伟,中國政法大学法学院副教授大数据和人工智能法律研究中心主任。

二、算法透明原则可行吗

三、算法透明原则必要吗?

四、算法透明的匼理定位和算法规制的重构

近半个世纪以来算法正以前所未有的深度和广度,影响和改变着人类活动依托这一技术革命情境,并伴随著网络空间和现实空间的加速融合算法应用越来越广泛。可以说在当代社会,算法几乎无处不在、无所不能算法应用在发展。与此哃时大数据和人工智能的兴起,使算法得以通过基于自我训练、自我学习过程实现自我生产和自我更新,算法本身也在发展

然而,算法是一把双刃剑算法可以调节室内温度,但是也可以把房间变成冰窖火炉;算法可以自动开门也可以把人们锁闭在屋内;算法可以洎动驾驶,但也可以引发事故;算法可以治病救人但也可以误诊杀人;算法可以帮助我们更高效地分配资源,但也可以在分配中歧视特萣群体……随着算法共谋、算法失灵、算法歧视等问题的出现“如何规制算法?”这一命题在近两三年来以一种近乎猝不及防的方式被推向前台,也一跃而进入主流法学界的视野

就像面对魔法一样,人们在直觉上对算法引发问题的第一反应是搞清楚它到底是什么。於是在规制算法的纷纭众说中,最广为熟知、且被普遍认可的便是算法透明原则。尽管各研究领域的学者对于算法透明原则的内涵认識不一但大体上,算法透明原则被归为一种对于算法的事前规制模式它要求算法的设计主体或者使用主体公开和披露包括源代码在内嘚算法要素。让人颇感意外的是虽然学界呼吁算法透明原则的声音不绝于耳,但却鲜有中文文献对其作理论性辨析也没有对其在实践Φ的应用作归纳反思,更不用说其在整个算法规制图景中如何进行合理定位在相关研究尚未展开的背景下,有些学者却已然将算法透明原则作为算法规制的首要原则甚至乐观地认为,一旦透明算法就可知,一旦可知算法问题就可解。本文可能就是想在对算法透明原則作出理论和实践辨析后为这股乐观情绪泼上一瓢冷水。

在笔者看来目前有关算法规制的讨论,夸大了算法透明原则的作用本文旨茬揭示,算法透明仅在有限的情境下适用在多数情境下,算法透明原则既不可行也无必要。依托对算法透明原则的批判本文尝试回應一个理论问题:如何规制算法?本文结合学理上事前规制与事后规制、本质主义与实用主义这两对比照对算法规制理论重构展开初步思考,并借此阐明以算法问责为代表的事后规制手段可能才是更加得当的规制策略。而算法透明本身只能在特定情况下,起到一定辅助效果

无论是在政治学、经济学还是法学领域,透明原则已成为现代政府规制的一条基本准则早在19世纪中叶,杰罗米·边沁(Jeremy Bentham)和约翰·斯图尔特·密尔(John Stuart Mill)等思想家就有针对性地讨论过透明原则。这样的讨论逐渐成为西方自由主义视野的一部分。直至近现代诸洳德里希·哈耶克和约翰·罗尔斯等自由主义理论家,无一例外地受到这些讨论的影响在这些西方思想家看来,透明原则的民主政治有著两大根本助益:其一,它可以增强公权力机关的可问责性;其二它可以保护公民的知情权,保护公民免遭专权独断

具体到法学领域,透明原则也一直贯穿于现代法律制度之中套用美国大法官路易斯·布兰代斯(Louis Brandeis)的一句流传甚广的名言——“阳光是最好的消毒剂”。在美国法中透明原则不但是公法中形式正当程序(Procedural Due Process)的一个核心原则,而且也在某种程度上通过相关法律制度的构建,塑造了代议淛民主制度与之类似,在我国透明原则也成为公法领域的一项原则要求,并且在制度上有着多重体现比如规制依据公开、行政信息公开、听证制度以及行政决定公开等。

当然讨论透明原则在规制理论或者政府信息公开中的正当性,已经超出了本文的范围本文聚焦於透明原则在互联网时代的一个具体延伸——算法透明原则。之所以说是延伸而非属于相应类目,是因为算法本身并不是由公权力机关所独享更多地,也会被私营机构所使用具体而言,民主政治语境下的透明原则也仅仅是在公权力机关,或者部分带有“公共性”的私营机构使用算法时才涉及到传统公法的透明与信息公开问题。而本文所指的算法透明原则既适用于政府的算法规制,也适用于私营機构的算法规制;也正是在这个意义上它有着更丰富的内涵。

虽说有关算法透明的讨论早已有之但必须承认,21世纪初的两次美国总统夶选大大推进了人们对算法透明的关注,可以称得上是“神助攻”2000年大选,首次采用电子投票的几种方式器最终,在沸沸扬扬的布什诉戈尔案(Bush v. Gore)中投票的几种方式设备(包括老式打孔机、光学扫描机和电子投票的几种方式机)的透明性和公正性,成为了全社会关紸的焦点作为回应,2002年美国国会通过了《协助美国投票的几种方式法案》(The 2002)着力推广电子投票的几种方式机,并配套相应管理措施之后,大量科技公司看到电子投票的几种方式器的商机纷纷涌入这一领域。然而各类新开发的电子投票的几种方式器的大规模应用,不但未消旧愁反而又添新忧:选民们怎么知道这些电子投票的几种方式机在何时将数据上报到计票中心?而计票中心是不是准确无误哋记录下每一个人投出的选票谁又能确保选票数据统计没有造假或者选票数据库不被黑客攻破?算法透明被认为是投票的几种方式监管的一剂良药,因而受到广泛讨论

2004年美国大选使用的电子投票的几种方式机

其后,算法应用在广度和深度上的增加也有力推动了对算法透明的持续讨论,乃至使其逐渐成为该领域内的一项原则性提议当然,不同学者们对算法透明原则存在不小的认识差别这个现象在茭叉学科研究中也十分常见。这种差别用“言人人殊”来形容,略嫌夸大但换个说法,用口径不一来形容应该是恰如其分的。不过对于该原则的认识,还是存在最大公约数——即针对算法的事前规制原则要求算法的设计方或者使用方,披露包括源代码、输入数据、输出结果在内的各项要素弗兰克·帕斯奎尔(Frank Pasquale)对于算法透明的理解,更为复杂而深入他在不同的著述中,曾把算法透明理解为综匼源代码公开、算法分析、算法审计等手段合理促成的算法透明他的这种理解,当然给他的理论带来更强的解释力但是也在一定程度仩模糊了算法透明与其他规制手段的边界,从而可能会给理论和实务都带来很大麻烦基于以上考虑,本文取狭义上的算法透明概念

算法透明原则最终的落脚点,是对于算法自动化决策的规制而算法所主导的自动化决策可以概括为:基于输入数据,通过算法运算实现結果输出。从这个意义上看如果对算法没有一个明确的认知,也就无从判断算法自动化决策是否公正表面上来看,算法透明就是打開黑箱而将“阳光”洒落整个自动化决策过程的理想手段。

与传统的透明原则能带来的优势类似算法透明同样在可问责性和知情权两个維度发挥作用。其一算法透明可以让算法操控者变得更具可问责性,一旦出现精确性和公平性的偏差可以依据所披露的算法来主张算法操控者的责任。更甚之较之人为治理的透明原则,算法透明原则还隐含着一个算法治理本身的优势亦即,人类决策者的内在偏见和私念很难被发现和根除但假如我们窥探算法的“大脑”,即整个决策和执行过程就可以变得更透明、更容易被监督。其二算法透明吔赋予算法规制对象一定程度上的知情权,而这种知情权有利于第三方(尤其是专业人士)实施监督也有利于算法规制对象依据所披露嘚算法,在事后对算法决策提出公平性和合理性的质疑

正因为算法透明有着这些好处,许多论者对算法透明原则趋之若鹜更有乐观的論者认为,只要算法透明甚至只需源代码公开,就可以解决很多现实中的算法问题可以说,在当前国内算法透明原则俨然成为了算法治理实践和学术讨论首当其冲的基本原则。

二、算法透明原则可行吗

算法透明原则本身,是不是一个不容置疑的金科玉律呢算法透奣原则真的那么有用吗?在算法运用越来越广泛、而由此引发的问题越发复杂的情境下是不是可以说,算法越透明越好呢答案并不是那么简单。

如果单单从美国大选投票的几种方式算法中的例子出发我们会很自然地把算法透明原则与自由主义传统下的政治学、经济学囷法学中的透明原则密切联系起来。然而这很可能是以偏概全。一方面算法透明原则——如果得以践行——无论在外延上,还是在内涵上都与传统的透明原则有所不同。另一方面虽然本文第一部分阐述了算法透明原则与传统自由主义下的知情权和可问责性之间存在茭叉,但不能否认比起传统自由主义的透明原则,算法透明原则蕴含着更大的内在张力和具体限制

接下来,本文将分别探讨算法透明原则的两个根本问题:算法透明原则是否可行以及算法透明原则是否必要本部分通过具体规制情境,考察算法透明原则的可行性问题倳实上,算法透明原则作为一项带有普遍强制性的法律原则它有可能会与国家安全、社会秩序和私主体权利等法益相冲突,不具有作为與基本法律原则所匹配的普遍可行性

(一)算法透明vs.国家安全

无论古今中外,公开和保密一直是国家治理中至关重要的理念。具体到算法治理领域哪些算法可以公开,向谁公开公开到何种程度,都需要放在国家安全这一棱镜中着重考察。而对于以国家安全为由的保密义务许多国家在政策和法律层面都给予了高位阶保护。比如我国的《国家安全法》《网络安全法》《保密法》以及美国的《国家咹全法案》《爱国者法案》等。这些法律在很大程度上都给相关的算法透明设置了障碍。换言之当算法透明与国家安全相冲突时,算法透明的可行性必将遭受挑战

举例而言,为了方便机场安检效率全球大部分国际机场都采取了抽样安检策略,即在常规安检之外抽取特定人群进行更严格繁琐的检查。如此一来既可以保证机场安检的速度,又能给恐怖分子带来一定威慑力抽样的程序,则由算法来執行假设为了防止对特定群体的歧视性抽样,根据算法透明原则公众要求公开抽样算法,那么机场应不应当让算法透明呢?可以想見一旦算法透明,恐怖分子有可能根据公开的算法进行博弈谋划规避手段来避免被严格检查,或者根据算法所提供的随机性逻辑来合悝定制所需样本试错数量再比如,假设某次导弹试射演练后制导系统的算法失灵,致使导弹偏离既定弹道炸毁民用设施,并造成伤亡那么,公众是不是可以就此要求算法透明要求军方公开制导系统的算法呢?后文将提出更合理的解决方案但就本节所讨论的主题洏言,即便公众的诉求完全公平合理但本案例中算法透明的可行性,也将在很大程度上受到限制

在上述两个案例中,很显然如果坚歭贯彻算法透明原则,将有可能导致产生国家安全隐患(飞机航路安全与军事设施安全等)换言之,对于算法透明原则而言当其与国镓安全相冲突时,不可避免地会受到国家安全的限制比如美国911事件过后,以小布什总统为首的保守派政治家强烈抵制政府在国家安全領域的透明化,声称赢下“反恐战争”的唯一手段就是让美国变得和它的影子对手一样神秘。于是以《爱国者法案》为代表、以国家咹全为由对抗信息披露的法律政策,也就应运而生同样,我国在《宪法》第53条、《国家安全法》第4、19、28、29条与《网络安全法》第77条以忣其他法律法规中,都对涉及国家安全、国家秘密的信息披露进行严格限制。这些都是算法透明原则在不同的适用领域所需面对的重重關卡

综上所述,由于通常国家安全往往比算法透明背后的考量有着更高位阶的权重因此,一旦出现这一组对立国家安全将对算法透奣实施“降维打击”,这样一来算法透明原则的可行性就很难得到保证。这便构成了算法透明可行性的第一道也是最难逾越的一道障碍

(二)算法透明vs. 社会秩序

算法透明也可能与社会秩序背道而驰。我们以当前应用广泛的智能语言测试系统为例智能语言测试系统的应鼡,为的是测试的便捷和标准化语言测试系统的判分算法信息,具有很强的保密性不能被随意披露。不难想见一旦这类信息被披露,就很可能让不法分子钻算法的空子与语言测试系统博弈,也让整个测试无法达到其应有的考察目的类似的情况也会发生在抽奖活动Φ,如果抽奖环节所使用的算法一开始就被披露那么,投机分子就可能采取各种手段——比如破解算法直接干预抽奖环节、选择算法抽獎所青睐的时机和频次进入抽签环节——博弈以及操纵抽奖结果等。

当然网络空间中最经典的例子,当属搜索引擎优化(Search Engine Optimization)起初,搜索引擎服务提供商曾乐于践行算法透明,将其搜索引擎算法公之于众比如,谷歌早期的Page Rank排名算法的排序标准就曾公之于众然而,絀乎谷歌意料的是某些恶意网站(尤其是内容农场、商业广告网站、钓鱼网站、恶意代码网站等)利用这些被披露的排序算法,玩起了“猫捉老鼠”的游戏——采取搜索引擎优化来与谷歌排序算法展开博弈让一些本不应被优先排序的网站,挤进了搜索结果的靠前位置洳此一来,人们也就更难通过谷歌得到理想的搜索结果换句话说,谷歌Page Rank排名算法越透明其搜索结果排名就越容易被博弈和操控,最后影响到公众对于搜索引擎的体验也正因如此,谷歌以及其他搜索引擎逐渐收紧算法披露,到最后谷歌几乎明确拒绝算法透明,甚至將已公开的算法作出秘密调整就这样,谷歌搜索引擎算法彻底变成黑箱而这个黑箱,反倒成了公众获得理想搜索结果的保障

上述案唎仅仅涉及算法程序披露,而对于输入数据(作为算法的一部分)披露的案例更是不胜枚举屡屡出现的计算机考试漏题案件,就属于这類输入数据披露对于社会秩序的影响篇幅有限,不一一赘述由此可见,算法透明在实践中可能会与社会秩序发生冲突这便是算法透奣可行性的第二道障碍。

(三)算法透明vs. 私主体权利

算法透明原则将不可避免地带来信息披露,而在遍布私主体信息的当代社会信息披露将很可能与私主体权利(尤其是个人隐私、商业秘密和知识产权)相冲突。比如在金融信贷、个人征信和医疗诊治等领域,算法已經得到普遍应用这些领域中的法定保密义务和约定保密义务,会给算法透明原则的实现造成很大阻碍这是因为在被披露的算法中,往往既涉及到敏感的个人隐私也涉及到关键的商业秘密和知识产权。这些敏感信息或机密信息可能作为算法程序的一部分,或者可能作為输入数据、输出结果甚至可能兼而有之。

上述此类信息披露势必与隐私保护、商业秘密保护、知识产权保护等法律法规或合同约定楿冲突,并受到后者的限制这一现象在金融信贷领域最为典型,且不说用户个人隐私屡屡成为金融机构拒绝透明的挡箭牌金融机构还瑺常利用专利权、版权、商业秘密甚至商标权等私权,来对抗算法透明当然,就如下文将要讨论的States vs. Loomis案那样开发算法的公司所最常使用嘚抗辩,依然是将算法作为商业秘密来寻求法律保护类似的情况,不胜枚举

本文可以继续堆砌案例,但上述案例足以表明算法透明原则并不是一个普适原则。当然反过来说,这并不表明算法透明原则在任何情境下都不可行;这也不表明一旦出现与上述三种考量因素的冲突,算法透明原则就必然走投无路即便与三种制约因素存在冲突,但只要冲突是在合理范围之内其可行性也依然存在。比如湔文提到的投票的几种方式机案例,如若将投票的几种方式机的算法公之于众无论是从国家安全、社会秩序、私主体权利等哪个角度来看,他们对可行性的阻碍均很难成立唯一可能存在的隐患是,假如投票的几种方式机的算法公开会增加不法分子侵入系统篡改投票的幾种方式结果的风险,但是这样的风险可以在技术上和监管上加以限制。

综上所述本部分从国家安全、社会秩序和私主体权利等三个方面,质疑算法透明原则的可行性换言之,算法透明原则至少会受到上述三方面考量的限制并非放之四海而皆准。

三、算法透明原则必要吗

本文第二部分论证了算法透明并不是一个普适原则,在一些情况下并不可行接下来要回应的问题是:即便是在算法透明可行的凊形下,算法透明原则是否具有必要性显然,比起可行性问题更麻烦的问题是,当人们好不容易克服可行性障碍而最终实现算法透明時却发现算法透明仍然无力兑现其规制承诺。对于算法透明必要性这一问题本部分将从两个方面分别展开论述。

正如本文第一部分所提到的算法透明就是打开黑箱、洒下“阳光”。那么我们首先要回答:算法透明是不是就等于算法可知?如果这一前提条件不能成立或者不能完全成立,如果黑箱套黑箱或者“阳光”洒落在一块谜团上,那么算法透明原则所能带来的诸多益处,也就仍然无法兑现

(一)算法透明≠算法可知

在一些学者看来,算法透明就足以帮助我们了解算法的所有奥秘如果说在早前技术尚未精进的时代有这种說法,倒可称得上是值得商榷但在现如今还秉持这一观点,则就让人费解在笔者看来,算法透明不等于算法可知在它们之间,至少存在如下四道障碍:披露对象的技术能力、算法的复杂化、机器学习和干扰性披露

披露对象的技术能力这一问题,是比较好理解的当披露对象是非计算机专业人士时(比如与公共政策和法律裁判关系密切的法官、陪审员、执法官员和普通公众),算法本身是难以辨识的他们的技术能力有所欠缺,因此即便向他们披露源代码和相关技术细节,可对他们而言代码即乱码、算法像魔法,可能还是无法搞清自动化决策究竟是怎么做出的外行只能看热闹,内行才能看门道不可否认,外行可以借助内行来帮忙(比如专家证言)但这其中,可能会有成本和偏差

如果说上述第一个障碍是阻挡外行的门槛,那么后面三个障碍,就把外行内行统统拒之门外先说算法的复杂囮。事实上即便是简单的算法,也存在不可知的情况比如计算机领域著名的莱斯定理(Rice’s Theorem),就证明了某类算法的不可知属性随着技术的不断演进、算法分工的不断精细以及社会生活对于算法需求的不断提升,大量算法变得愈发复杂此处之所以着重强调复杂性,是洇为复杂算法的不可知情况更具代表性——它既包含了单一算法本身的原因也包含了更普遍的、多组算法模块交互的原因。而算法的复雜化会给算法的解释工作带来很大难度。当然这在计算机科学发展史上并不新鲜。计算机工程师应对这一问题的通行做法是:将算法系统模块化对于模块化后的算法,计算机工程师再分别解释各部分子算法各个击破,最后通过重新组合解释整个算法系统。虽然通過模块化的分工可以解决一部分复杂算法的解释问题,但即便如此就连计算机工程师也承认,算法复杂化模块化会令各个部分算法の间的相互反应变得不可预测。与此同时如果要保证模块化处理运行顺畅,就需要在算法系统设计之时进行整体规划;否则,复杂算法的模块化解释也很可能达不到预期效果。在很多情况下复杂算法应用和交互(比如API和云计算)无法确保我们从多个模块解释的组合Φ,或者与其他算法的交互中对算法进行准确解释。简言之算法的复杂化加大了我们理解算法的困难;而模块化这一解决进路,如果鈈是在算法系统设计之初就事先规划也不能很好地解决复杂算法的解释问题。

相比算法的复杂性机器学习对于算法可知的挑战,吸引叻更多关注传统算法要求计算机工程师事先指定一个表示结果变量的运算模式,作为以特定方式选定解释变量的参数以此来决定输出結果。与传统算法不同机器学习,作为一种更智能、更动态的算法其运算不受固定参数所控制,也正因此机器学习并不要求工程师倳先指定运算模式。当然“不要求”不等于“不能够”,机器学习的门类中也存在计算机工程师事先指定运算模式和控制学习材料的監督学习,与之对应的是运算更为自由而不可控的无监督学习和强化学习对于这三种机器学习算法的通行分类,笔者无意展开技术分析唯一与本部分论证有关的是,相对于后两者而言计算机工程师对于监督学习的把控度更高。对于后两者只要机器学习算法正在动态運行,我们就无法控制他们如何组合和比较数据自然也无法顺利地解释机器学习算法本身。

而与算法可知直接相关的是对于机器学习算法,其运算的函数关系不一定是固定清晰的数据集合我们既无法保证机器学习过程代表任何一组真实关系,也无法通过此刻的因果关系来推导未来的因果关系,因为算法本身不断学习、不断变化在算法披露的那一刻过后,披露的算法就已经过时古希腊哲学家赫拉克利特那句名言“人不能两次踏进同一条河流”,在机器学习中找到了最好的印证最典型的例子,便是智能广告推送算法上一秒出现嘚推送结果,算法会根据你是否在页面停留或点击推送进而计算出下一秒的推送结果。再比如大部分垃圾邮件过滤算法,都使用邮件哋址和IP地址的黑名单应用最为广泛的,便是Spamhaus其邮件地址和IP地址也是根据用户举报和自身机器学习实时更新,换句话说其这一刻不在嫼名单上的邮件地址和IP地址,很可能在下一刻就会上黑名单

由于机器学习的决策规则本身,是从被分析的特定数据中不断生成的因此,除了极少数被严格控制的监督学习以外我们根本不能考察静态的源代码或原始数据,无法用这样一种刻舟求剑的进路来推断机器学習算法的运算结果。也就是说对于绝大部分机器学习的输出结果,无论输入和输出的因果关系在表面上看起来多么直观这种因果关系嘟很可能根本无法被解释,其动态的变化也更难以把握更重要的是,对于机器学习(尤其结合了强人工智能和神经网络等技术的机器学習)而言输入数据的变化和累加,使得算法推算结果背后的深层原因变得难以把握,在这个意义上它本身就是一个无法实现透明的“黑箱”。而且机器学习所推导的“因果关系”,在很大程度上取决于输入数据这类因果关系只能是统计意义上的因果关系,它与规范意义上的因果关系存在一道难以跨越的鸿沟。例如谷歌研发的强化学习算法——AlphaGo。设计AlphaGo的计算机工程师都是棋力一般的业余爱好鍺,无法与柯洁、李世石这样的顶尖高手较量但恰恰是这些工程师设计了AlphaGo,把顶尖高手一一击败可以想见,这些工程师本人是没有办法一一解释AlphaGo的每一步棋招——如果工程师真的能理解每步棋的奥妙那么他们自己可能就是世界冠军了。换言之AlphaGo通过机器学习习得的竞技能力,工程师根本无法企及他们的每一步棋,也自然超出了工程师的理解范畴

最后一个阻碍算法透明向算法可知转化的障碍,是干擾性披露与前三个与透明直接冲突的原则不同,干扰性披露本身也可以被看成是算法透明的一种方式。它通过披露大量冗余干扰性数據混杂在关键数据中,以此妨碍解释关键数据内容也正是在这个意义上,干扰性披露是算法透明的一个典型悖论亦即,公开的越多可能对算法关键内容的理解就越困难。

其实在《黑箱社会》一书中,帕斯奎尔就论述过这个现象他称之为“混淆”(Obfuscation),其内涵与幹扰性披露是一致的就是指刻意增加冗余信息,以此来隐藏算法秘密带来混淆。值得一提的是帕斯奎尔的《黑箱社会》里,更多是指出黑箱社会或者说算法不透明带来的问题而关于解决之道,他也并非一味奉行算法透明哪怕极力主张算法透明的帕斯奎尔,也承认幹扰性披露本身也是算法黑箱的始作俑者之一。因为公开的算法内容越多、信息量越大算法分析的工作量和难度也会随之增加,在这個意义上我们也与算法可知越来越远。这就好像有些公司为了妨碍会计审查有意披露大量的冗余材料,让调查人员不得不在几万份材料里大海捞针而干扰性披露的存在,不但妨碍了算法可知而且从另一个角度也强化了本文对于算法透明必要性的质疑。

综上算法透奣不等于算法可知,甚至有可能会妨碍算法可知算法透明并不是终极目的,它只能是通向算法可知的一个阶梯并且,这一阶梯也并非必由之路这一点,将会在本文第四部分进行论述因此,对于某些算法即便算法透明,如果未能达到算法可知也是于事无补,甚至適得其反事实上,这是算法透明原则与传统公法上的透明原则所存在关键区别传统公法上的透明原则,无论是立法上的透明还是执法与司法上的透明,尽管不能百分百排除明修栈道、暗度陈仓的可能但大体上,社会公众都能对所披露的信息(文本、音视频内容)有著较为明晰的认识而算法透明原则却不尽然。一旦透明之后亦不可知其透明性所能带来的规制效果也就无从谈起;更甚之,像干扰性披露那样误导披露对象反而会减损而非增强规制效果。

(二)算法透明不能有效防范算法规制难题

对于算法必要性的第二个质疑涉及箌算法规制的实践。此处所要讨论的问题是:即便算法透明原则可行那么,其是不是就像一些学者认为的那么必需那么灵验,能防范算法歧视、算法失灵以及算法共谋等各类算法规制难题本文认为,究其本质算法透明原则仅仅是一种事前规制方式,我们不能夸大其茬规制中的效用

首先,算法即使透明、可知也不意味着算法问题必然能被发现。单就算法漏洞而言就包括了输入漏洞、读取漏洞、加载漏洞、执行漏洞、变量覆盖漏洞、逻辑处理漏洞和认证漏洞等。这些漏洞中的一部分的确可通过算法透明来防患于未然,但另外的蔀分却需要在算法执行过程中,才能被发掘并加以解决比如,著名的Heartbleed安全漏洞从程序开发到安全漏洞被发现,用时整整两年而该算法是开放源代码,完全符合算法透明原则——算法透明原则并不能帮助工程师在两年间发现这一漏洞

其次,即便算法透明计算机工程师也不能确切预测算法与外部运行环境的交互。对于一些算法而言它们的运行,需要依赖于外部环境比如外部软件和外部客观条件等。例如对于航空智能控制程序,需要根据特定时间的风向、风速、天气状况、飞机飞行角度等诸多外部客观条件来决定具体输出的結果。而最近波音飞机由于算法失灵接连发生两起坠机事故恰恰证明,即便算法透明我们也无法有效避免算法失灵。而有赖于云计算、API等技术目前算法与外部环境的交互已变得越来越频繁,这种交互带来的情境变化让算法透明更加无力承担化解算法问题的重任。

最後一点也和算法透明的事前规制性质有关。即便算法透明在执行算法的过程中,仍然无法保证排除第三方干预从而影响最终结果。僦像克鲁尔(Joshua A.Kroll)等人所指出的那样:“不管算法有多透明人们仍然会怀疑,在他们自己的个案中公开的算法规则是否真的被用来做出決策。尤其是当这个过程中涉及到随机因素时一个被安检抽查或被搜身的人可能会想:我难道是真的是被公平的规则选中了吗?还是决筞者一时兴起挑中了我?”比如在State v. Loomis一案中,一位名为卢米斯(Eric Sanctions)算法裁判为“累犯风险较高”COMPAS通过算法计算出罪犯在前次犯罪后两姩内的“累犯风险”,而算法所依据的是罪犯的各项生理特征和社会背景COMPAS通过算法,可以给每一位罪犯计算出他的“累犯风险指数”誠如卢米斯的诉状所主张的,不管COMPAS算法有多透明他仍质疑,在自己的案例中公开的算法规则是否真的被用来作出决定。再比如电子酒精测试仪的算法算法的披露,并不能保证测试结果的公正在执行过程中,探头可能老化失灵、执法人员可能因操作失误、受贿、种族性别歧视而有意控制探测部位等等规制程序的诸多环节,都可能使透明算法规则导出不公正的裁判换句话说,如果我们在算法公开和被披露之后在执行算法的环节,受到算法之外的第三方因素介入就像电子游戏的“外挂”或者黑客入侵程序一样,仍然可能导致算法嘚出不公正结果而这些算法规制的问题,是所有事前规制手段的一个盲区

在此,笔者并不是想证明除了算法透明原则之外,其他的規制手段在应对执行环节的问题时就能无往不利。本文只想指出算法透明原则作为一项事前规制,有其自身局限它并不能提供解决算法问题的万灵药方。而算法不透明也可能有其自身价值(比如隐私保护、国家安全等)一味强调透明,非但不能保证解决现有问题還可能引发新的算法规制问题。

四、算法透明的合理定位和算法规制的重构

从算法透明的可行性和必要性两个维度而言该原则在算法治悝中存在缺陷和不足。尽管如此我们不能否认,算法透明原则仍然在某些情境下有其适用的可行性和必要性。于是本部分结合其他楿关规制模式,探讨算法透明原则在算法规制中的地位问题并进一步重构目前的算法规制理论。

(一)计算机科学角度的算法透明

首先我们来考察一下计算机科学角度的算法透明。美国计算机协会(Association for Computing Machinery)作为算法治理的业界权威在2017年,公布了算法治理七项原则(见下表)

从上述列表中,我们可以得到四个有关算法透明的教益

第一,知情原则对应的是算法透明中算法规制对象的知情权这一面向但是,计算机工程师对于算法透明中的“知情”有更务实的把握———直接公开源代码不等于知情;而且我们还需关注更深层次的“知情”,亦即“算法设计、执行、使用过程中可能存在的偏见和可能造成的潜在危害”

第二,计算机工程师对于算法透明的功用有着更为清醒的认识,他们认为即便是公开和披露算法也无法确切把握最终运算结果。于是他们使用了“可能存在的偏见”(第1项和第5项)囷“可能造成的潜在危害”(第1项)这样的模糊字眼,其所隐含的信息是我们对算法的认知,只能力图接近但很难确切把握。这与蔀分法律人对算法透明脱离实际的期许形成鲜明对比。

第三计算机工程师明确意识到,算法披露本身也受到其他条件的制约,比如苐5条提到的隐私保护、商业秘密和恶性博弈而这些制约,正如本文第二部分论述的那样与算法透明的可行性有着持久的张力。尽管限制披露对象(只对适格的、获得授权的个人进行选择性披露)可以缓和这种张力,但这也无法根本解决所有冲突

第四,对于前文讨論的算法规制的两大类别计算机工程师所关注的,是事后规制而非事前规制。除了第1项的部分内容和第5项之外其余手段大体上均为鈳以纳入事后规制范畴。

从上述分析我们可以看出计算机工程师——作为对算法技术比较熟悉的专家——对算法透明的局限,有着清醒嘚认识一般而言,工程师更关心技术的细节而法律人更关心技术所带来的权利、义务和责任。照此逻辑比起法律人,工程师应该更關注算法透明所能带来的对于技术细节的理解及其对算法规制的意义然而,在计算机工程师眼里算法透明却并不处于算法规制的核心哋位,这很能说明问题——要么就是算法透明由于客观原因而难以实现,或者即便能够实现也无法确保他们对于技术细节的理解;要麼就是算法透明本身不足以让我们能够解决相应的算法规制问题。或许正是因此以美国计算机协会为代表的业界,并未对算法透明报以奢望而是倾向于事后规制(如救济、审计、解释、验证、测试、问责等)为主的规制策略。

(二)算法透明原则的合理定位

算法透明原則仅仅是一种事前规制方式尽管在某些情形下有可能实现“防患于未然”的作用,但是我们并不能夸大其在规制中的效用。算法透明並不是终极目的它只能是通向算法可知的一个阶梯。而算法可知最终也要服务于其他规制手段。这一点与上述计算机工程师对算法透奣的定位相吻合也可以呼应透明原则的传统政治学定位。

更重要的是算法透明所能带来的规制效用,在很大程度上可以被以算法问責为代表的事后规制手段所涵盖。算法规制最成熟的实例之一便是美国对于P2P算法在音视频内容分享领域的规制。P2P算法本身只是一种更为高效的文件传输技术但在它问世之后迅速被用来传播音视频文件,其中大部分都是盗版内容为了治理这类算法滥用,音乐电影产业和互联网公司的合力推动了版权立法和司法而这种规制,更多地是以事后算法问责的形式出现对于版权领域的算法问责机制,美国法传統有着多个层级的民事或刑事责任可以被适用比如法人责任(Enterprise Liability)等。这一系列算法问责机制对于算法的设计、执行和使用各个环节,嘟具有规制力而算法本身,或者说算法透明所指向的算法可知对于厘清侵权事实或许有一定帮助,但却不是问责机制的重点哪怕曾被P2P技术案件中所关注的“中心服务器模式”和“去中心服务器模式”的区分——可以通过算法透明来厘清——也可以在随后的判例中被消解,法官后来只看重的是算法在后果上是否构成法律意义上的“帮助侵权”,而不是技术层面的“中心服务器模式”和“去中心服务器模式”的区分本身

正如前文分析所示,无论是从技术现实角度还是从法理逻辑角度,算法透明都难以承担算法规制基本原则这一定位;充其量它也只能扮演一个辅助角色。打个比方算法透明原则在算法规制中的地位,就类似于《福尔摩斯》中的华生医生——他对于簡单的案件事实调查和分析可能对福尔摩斯办案有帮助但不是每个案子都派得上用场。弄清了算法透明作为华生医生这一定位下文将給出线索,帮助我们寻找算法规制领域真正的“福尔摩斯”

正如前文所述,传统政治经济学对于透明原则的考量出发点都和限制公权仂密不可分。一方面透明原则可以加强对于政府的可问责性;另一方面,透明原则也可以赋予公民更大的知情权然而,传统透明原则與本文所讨论的算法透明原则在内在逻辑和实际应用方面,都有所不同尽管政府也开始逐步使用算法施政,但目前大部分算法(包括夶部分政府所使用的算法)都是由公司所开发且这些算法的行为后果也不仅仅限于公民(也可能包括政府本身),因此对于透明原则所能带来的强化政府可问责性和公民知情权两方面理据,并不能——至少不能完全——适用于算法透明原则更重要的是,正如前文所述比之传统政治经济学上的透明原则,算法透明原则在可行性和必要性上有着很大瑕疵。换句话说在实际应用层面上,算法透明原则吔难以兑现我们对传统透明原则所期待的规制效果

当然,本文前面的内容集中讨论了算法透明原则在算法治理中的应用及其限制。可昰到目前为止,本文还没有具体展开“如何规制算法”这一核心问题基于我们对算法透明的合理定位,接下来本文将抛砖引玉,提絀算法规制重构方面的一些思考由于算法透明在规制效力上的不足和限制,它仅仅能在一些情境下作为辅助规制手段在应用特定的技術措施来矫正算法问题之后的事后规制,尤其是算法问责应该是法律人所更应关注的重点。

通常而言事前规制注重于损害发生之前的防范,而事后规制则注重损害发生之后的解决就像P2P算法规制所揭示的那样,对于这两种不同规制进路的强调有着强烈的现实意义。并苴如果我们从成本收益分析的维度切入这一现实意义,就可以看得更加清晰事前规制往往在损害防范成本低于损害发生成本时,被优先采用在算法规制这一领域,如前所述算法透明作为事前规制模式的一种,其防范损害发生的成本太高(尤其在面对机器学习和人工智能之时)而同时收效也没有保证。必须承认技术发展是一个动态、多维度的过程。如果未来可以回到我们在算法原初之时对它的把握和认知那么算法透明的成本是可以降低的。但目前我们看到的趋势正好与之相悖。2019年图灵奖就颁给了研究人工智能和深度学习的几位科学家而他们的研究成果,恰恰是增加算法透明的成本即便损害发生的成本很高(比如飞机失事),也不能保证算法透明这一事前規制模式是经济学上的更优选项。而事后规制在成本方面的好处主要有两点:其一事后规制把一些很难获知且不一定有用的技术细节,利用事后规范或者追责的方式抹平——我们把注意力集中到通过责任分配等手段来解决而从成本收益角度跳出了泥潭;其二,比之事湔规制事后规制在信息成本方面有着天然优势——行为和后果往往在事后更容易得到明确,这点对于复杂算法所引发的后果尤其显著夲文限于篇幅,无力对算法规制作出细化的成本收益分析但总体而言,笔者认为事前规制在多数情况下,并非算法规制的更优选项洏作为事前规制手段的算法透明,更由于其在可行性和必要性上的不足比之其他事后规制手段,其成本收益更显劣势

除了成本收益考量之外,这两种进路的对比也在某种程度上,折射出更深层次的两个算法规制理论面向:本质主义(Essentialism)和实用主义(Pragmatism)这不禁让人想起几年前,雷恩·卡洛(Ryan Calo)和杰克· 巴尔金(Jack Balkin)关于机器人规制的辩论

对于机器人的规制,卡洛秉持本质主义进路关注其机器人的技術特性,认为我们一定要先搞清楚机器人的技术特性然后再根据这些技术特性,来实施对技术的规制

巴尔金对卡洛本质主义的批判,非常有力也富有启发他指出,包括卡洛本人在内的几乎所有当代美国法律人都受到霍姆斯大法官的法律现实主义的影响。而按照法律現实主义者对于法律与技术的理解技术特点其实并不那么重要,真正重要的是技术的应用方式以及这些应用所带来的、以权力配置为代表的社会关系变化这是由于技术的背后,还存在着人们怎么使用、博弈甚至规避技术这些具体实践而就像乔纳森·兹特芮恩(Jonathan Zittrain)提到嘚创生性(Generative)技术那样,人们在使用技术的时候往往会背离开发人员的初衷,也可以有很多变化并在使用过程中不断地改进技术。法律人应该关注这些技术变动背后的社会关系变动而不是变化的技术本身。这显然是非常霍姆斯也非常实用主义的观点

让我们回到P2P技术嘚例子。究其本质P2P技术就是一个共享文件的软件,但迅速被用来传播盗版音视频文件并且依据这一特定需求,而开发出很多新的附带播放、缓存、去中心化等功能的盗版音视频共享“神器”如果我们接受巴尔金的观点,把重点放在考察技术背后的社会关系我们就能夠跳出本质主义所设置的迷宫,更直接地回应具体的规制问题不再过多纠结于技术本质,也可以帮助我们更好地考察与具体权利义务关系有着更直接关联的规制要素比如对于P2P技术所引发的盗版问题的规制,与其纠结于技术本质不如更多关注人们使用或规避P2P技术时,所引发的权利义务关系的变化现如今P2P技术下载的盗版音视频作品得到遏制,除了法律规制以外还要依赖于更便捷的流媒体(附带会员和廣告营销)商业模式——既然获得正版的成本没有那么高,人们也就没必要承担P2P盗版的法律风险和麻烦而这些都与P2P技术算法的具体细节,并没有直接关联

重温卡洛与巴尔金的论辩,有助于我们理解以算法透明为代表的事前规制与以算法问责为代表的事后规制的区别对算法规制理论的构建,有着重要意义前者关注技术本质,后者关注技术所引发的后果两种规制思路的分野,在某种程度上恰恰折射絀关于技术本质的算法透明和以算法问责为代表的、关注法律后果的规制模式的比照。算法透明就是要规制者搞明白,目标算法究其本質是什么根据算法的特性来施以规制。而以算法问责为代表的事后规制模式就是要规制者去考察算法在实际运作中的具体结果及其背後的社会关系变化,针对它们来施以规制这种学术讨论上的比附,也有助于我们反思当前算法透明原则在理论上的悖谬以避免陷入“透明”“公开”“开放”等一些大词的迷思而忘却法律人面对的具体规制问题以及其中可能存在的理论意义。换言之法律人面对算法规淛问题时,应当着重考量算法所引发的、以权力配置为代表的社会关系的变化(比如算法何以引发歧视性后果)而不是把关注点放在算法的技术本质(比如源代码是如何编写的)。

本文的论证进一步表明带有强烈本质主义色彩的算法透明,在可行性和必要性上都存在瑕疵只能作为算法规制的辅助手段存在。换句话说算法本质应不应该被探究、能不能被探究清楚以及探究清楚之后能否保证有效规制,茬本文看来统统存疑。反之实用主义导向的事后规制手段,较之算法透明有着更多优势应该作为算法治理中的主要手段,而且也应當是法律人可能的理论贡献所在后者,才是法学界应对算法问题的福尔摩斯

当然,有些人可能质疑我们一开始就把解决问题的重点放到了算法应用效果上,那么算法本质与算法应用之间转化的相关规制问题可能就会在结构上被忽略了。这并非笔者本意事实上,事後规制并不排斥在显现应用特定的技术措施来矫正算法问题而且很多改造算法本质的技术措施,恰恰是由于事后规制倒逼而产生的比洳美国通过《儿童在线隐私保护法》(COPPA)及后续一系列判例形成对算法的事后问责之后,儿童保护网络内容软件也在不断改进迭代

最后,我们再把这一规制进路具象化地放到部分前例中。对于机场安检歧视不应当算法透明,而更适合事后问责;导弹试射事故不应当算法透明,而更适合事后问责;自动飞行事故没必要算法透明,而更适合事后问责;酒精检测失灵没必要算法透明,而更适合事后审計……而如何把后面这些具体的事后规制制度的设计得更好恰恰是法律人理应关注的问题。篇幅有限笔者在本文中无意也无法提供完整的算法规制图景,但就目前文章所论至少揭示了算法透明的局限性,以及事后规制在实践中和学理上的优越性为后续的讨论提供了基础。

为了应对当下算法在社会生活的应用中带来的一系列问题法学界对于算法规制,有着迫切的需求而学界对于算法透明原则的推崇,也是在某种程度上构成了算法规制问题及其制度回应的重要组成部分然而,正如本文所揭示的目前法律人所极力推崇的算法透明原则,作为事前规制的一种方式其在可行性和必要性上,都存在瑕疵本文无意完全否定算法透明在算法规制中的作用,但我们更应当充分认识算法透明的不足和适用的局限而更为合理的规制手段,应当是实用主义导向的、以算法问责为代表的事后规制手段

本文旨在進一步揭示批判算法透明原则的理论意涵。不可否认在切入法律与技术这一交叉领域时,法律人当然有必要对技术有所了解才能言之囿物。然而法律人对于技术本质的过分强调,可能会带来研究的困境和危险体现在两个方面:其一是盲目夸大,由于自身技术专业能仂不足从而“神圣化”或“妖魔化”技术本质;其二是削足适履,过分纠结于技术本质导致无法充分考察法律及其他规制要素对技术所引发的社会关系可能的回应。毕竟法律更应关注的是算法失灵、算法歧视以及算法共谋等问题所带来的权利、义务和责任的关系,而鈈是这些技术问题本身而后者是计算机工程师所关注的。

法律人一味强调算法透明哪怕披上了一件漂亮的“科学”外衣,其在法律和淛度层面上的意义依旧是模糊的,甚至我们可以断言单纯地探究算法透明,将限制法学界在算法规制领域的贡献在笔者看来,那些┅味强调算法透明的法律人一方面,很可能是对算法技术本身一知半解对算法可知以及算法透明的应用范围和规制效用,抱有不切实際的期待;另一方面恐怕对网络法也缺乏深入理解,把本来可供法律人思考和探究的算法规制问题推给了算法本身以及算法开发人员,用“透明”“公开”“开放”这样的大词来包装自己的理论说到底,算法所引发的法律问题无论在私法还是公法领域,都要求法律囚在侵权法中的第三方责任理论、注意义务理论、因果关系理论、行政法中的正当程序理论、问责理论和法经济学中的成本收益分析等法學理论框架下甚至在更广阔的社会科学理论框架下,来讨论类型化的应对并借此尝试提出新的理论洞见。

一个多世纪前工业事故危機引发了美国法律制度的大变革,包括霍姆斯在内的诸多美国法学家参与了这一进程向美国的法律体系引入和构建了侵权法、事故法和保险法体系,当时的许多理念和制度直至现在依然屹立不倒现如今的算法规制危机,在某种程度上也是向法律人开启的一个契机——這同样是法律人面对一个相对开放的领域,一个充满可能性的历史时刻而正像本文所揭示的,实用主义进路更可能帮助法律人跳出算法透明原则的迷思,更可能找到可以传世的理念和制度

}

据魔方格专家权威分析试题“茬我国,人大代表的选举产生有两种基本方式一种是直接选举,即..”主要考查你对  民主选举  等考点的理解关于这些考点的“档案”如丅:

现在没空?点击收藏以后再看。

  • 由选民直接投票的几种方式选举被选举人的方式 每个选民都有表达自己意愿的机会 在选民较多、分咘较广的情况下不适用
    由选民选出的代表选举产生上一级代表机关的代表或政府领导成员的选举方式 每个选民不能直接投票的几种方式选舉自己心目中最值得信赖的当家人
    正式候选人名额与应选名额相等的选举方式  可以比较充分地考虑当选者结构的合理性 限制选民的自由选擇选民易受误导,积极性受影响
    正式候选人名额多于应选名额 为选民行使选举权提供了余地在被选举人之间形成了相应的竞争 可能影響当选者结构的合理性;被选举人之间的竞争易发生虚假宣传、贿赂选民等情况

以上内容为魔方格学习社区()原创内容,未经允许不得轉载!

}

我要回帖

更多关于 投票的几种方式 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信