查看原文
其他

人工智能与算法——“网络法的理论与视野”工作坊专题五 ||《地方立法研究》

地方立法研究 地方立法研究编辑部 2021-09-21




“网络法的理论与视野”学术工作坊


△ “网络法的理论与视野”学术工作坊参会人员合影


专题一

网络法研究方法论

专题二

版权与平台

专题三

隐私与被遗忘权

专题四

数据与治理

专题五

人工智能与算法



“网络法的理论与视野”学术工作坊专题五

人工智能与算法

报告人

沈伟伟(中国政法大学法学院副教授)

张凌寒(东北师范大学法学院副教授)

胡 凌(上海财经大学法学院副教授、副院长)

来源《地方立法研究》2019年第4期

沈伟伟:算法透明原则的迷思



我先引出我文章的中心问题:“如何看待算法透明原则”。为了回答这一问题,我将论证两个对于算法透明原则的批判:一是“算法透明可行吗 ”,二是“算法透明必要吗”。接下来,是目前尚未完稿的部分:“算法透明的合理定位和算法规制的重构”。最后是简单总结。


首先,为什么会有算法透明,它到底是什么?它(算法透明)首先是一种事前规制。概念上,诸位学者众口不一,取个公约数,就是公开和披露包括源代码在内的算法要素。这一原则其实很早就已经有人提了,包括隐私法的专家Paul Schwartz (保罗·斯沃茨)、Lawrence Lessig、Danielle Keats Citron(丹尼埃尔·纪兹·希特隆)。当然,最有影响力的,当属《黑箱社会》的作者Frank Pasquale (弗兰克·帕斯奎尔)。


刚刚左亦鲁老师提到,2016年美国总统大选对于假新闻规制,是一个“神助攻”。类似地,算法透明原则得到重视,实际上也和两次美国总统大选“神助攻”有关,第一次是2000年美国总统大选。2000 年美国总统大选佛罗里达州选举有一个非常著名的案子——布什诉戈尔案,在这个案子里史蒂文斯(Justice Stevens)大法官曾提出过异议:异议关注的焦点是,在佛罗里达州计票的投票机有穿孔的投票机和光学扫描式投票机,这两种投票机的废票率是不一样的。所以,它提供了一个简单的切入视角。后续的一些讨论尤其是2004年美国总统大选时,大家开始关注电子投票机是如何运作的,因为选民一旦在投票机面前,按下一个按钮,怎么知道这张票最后怎么通过算法如实记录的?这是一个怎么样的环节?是不是存在算法黑箱?


算法透明当然有其好处。但回过头来,我们会反思,透明到底有没有什么问题?


比如,我们可以想想,透明到底是不是一定都是好的?最近大家如果关注美剧《权力的游戏》的话,基本上周一是大家防剧透的时间。我觉得有一位同学的朋友圈写得特别有意思,他说“周一定时关闭朋友圈,别问为什么!因为讨厌的剧透鬼还是一波接一波地袭来” 。这告诉我们,有些信息的披露(比如剧透),实际上大家是不愿意知悉的。这也可能成为前面戴昕老师提到的那篇讲不许披露的文章(假装不知道)的讨论对象。这是题外话。


让我们从透明回到算法透明原则。


首先,本文想论证的是算法透明原则可行吗?在这里我要把算法透明和国家安全、社会秩序、以及个人个体权利做一个对比,实际上在某些情况下,因为有国家安全、社会秩序、个体权利的考虑,算法透明实际上并不可行。


其次,我要论证的是即便算法透明可行,算法透明它必要吗?这里我有两个分论点。


(1)算法透明并不等于算法可知。算法可知就是给我们一堆算法代码,最后我们可以知道它到底是干什么的。横在算法透明跟算法可知之间其实有四道障碍。分别是被披露方的技术能力、算法的复杂性、机器学习和干扰性披露。第一道障碍是针对外行的,后面三道障碍都是针对内行的。


(2)算法透明其实不能有效地解决和防范这个算法难题。比如说即便算法可知、算法透明,它也可能意味着算法问题还没被发现,很多网络安全漏洞,都是搁了很久,很多调试程序都没有找出它,最后爆发了以后,大家才知道有这个漏洞。


在计算机工程师眼里,他们怎么样来给算法透明定位?


ACM是美国计算机协会,它是一个业界权威的官方机构。它出了这么一个原则性规定,一共7条,时间有限,我不一一说明。从里面我们得出四点,但其实总结过来就是说算法透明其实没那么重要,业界对算法透明限制有非常敏锐的认识。因此,业界在这些原则里面涉及得比较多的,反而是对于算法的事后规制,比如说质询、申诉、责任认定,还有一些审计的流程。


所以,我觉得算法透明要有合理的定位,我不知道大家看不看《福尔摩斯》,里面的华生医生是一个辅助角色,不是每个案件他都能发挥作用。他其实只在比较简单的事实认定的一些方面能带来帮助,而且,不是每个案件都能带来帮助。现在我们将算法透明原则,拔到非常高的普适地位。在我看来不合适,算法透明原则的定位,就应该像华生医生一样,扮演一个辅助的角色。


最后,我简单提一下,可能是跟这次讨论比较有关的,涉及计算机、机器人法Ryan Calo(莱恩·卡洛)和 Jack Balkin(杰克·巴尔金)的一个讨论。Ryan Calo认为我们应该关注机器人的技术本质,为此他总结了三个本质。Jack Balkin认为我们作为法律人应该主要关注技术所引发的后果。一个是从本质主义的角度出发,一个是从实用主义的角度出发。


我觉得这恰恰就是算法透明跟算法审计是属于两个不同进路中的一个代表,前者是要看一下算法到底是什么,后者是说如果发生一些后果我们该怎样来防范。我想,后者可能是解决算法治理的一个更为理想的进路。

张凌寒:论不受机器决策的自由



为什么会讨论一个这样的题目?这个主题来自波音737的失事事件,它的调查结果已经出来了,自动驾驶系统发生错误导致飞机不断向下俯冲,飞机坠毁造成几百人丧生。当时新闻报道中让我印象最深的一句话是,飞行员和自动驾驶系统在不停争夺控制权,飞行员尝试了20多次之后,还是没有争夺过自动驾驶系统。这看似只是一个飞行安全的问题,实际上背后隐藏了一个权力的争夺:人和机器争夺决策的权力。这个残酷的事件让我们很容易提出一个疑问:机器决策的边界到底在哪里?虽然我们乘坐飞机失事的概率很低,但是在日常生活中我们受到很多机器决策的影响和控制,比如说导航、新闻推送,再比如说我们都知道美国特别有名的卢米斯案件,当事人认为法院使用“风险评估工具”智能量刑系统(将再犯可能性危险等级认定为“高风险”)是有歧视的,要求重新裁决但被驳回。我们可以总结现在机器决策的应用有两个前提:第一,机器决策无处不在且没有限制;第二,机器决策被假设都是正确的。这就使得我们总被机器决策,而一旦机器决策出错,人就被困在机器决策的闭环中,纠正错误的成本极高。


那么,在人工智能时代,我们有没有不受机器决策的自由?如果有,机器决策的边界在哪里?当我们被错误决策的时候,救济的路径是什么?进一步思考,我们可能会问,人为决策和机器决策的本质究竟是什么?它们之间究竟应该是什么样的关系?


我想先介绍一下GDPR对于人工智能时代机器决策和人的关系的构建的一个基本路径。这个制度其实已经存在了20多年,1995年的《一般数据保护条例》,就提到人不受纯粹的机器决策。2018年欧盟GDPR生效之后,扩展为三个步骤:第一,人作为个体如果涉及重大利益,不受纯粹的机器决策;第二,如果做出一个决策,人可以提出异议,要求获得解释;第三,挽救的办法就是要求给人一个人为的决策。


这一制度的主要特点是,它是一个对抗性的制度。它用人来对抗机器决策,把人作为监督和核查机器决策的一个工具。也就是说,不管是提出异议也好,还是获得解释也好,我们都可以看到它实际上要把机器的语言变成人的语言,打通信息交流的障碍之后,人才可以读得懂并监督得了机器决策。


关于GDPR第22条的路径,我认为就是“纸牌屋式”的私权进路,其有以下几个方面的问题:


第一,太依赖私权救济的路径。我们可以看到私权救济的路径,实际上从GDPR到现在我都没有看到一个非常有效的案例,就是用人对抗机器决策然后成功的。再一个就是,虽然《一般数据保护条例》已经有了20年的历史,但是根据我查阅的资料,20年当中也没有任何案例使用了不受机器决策条款并且成功的。2018年德国有一个案例最终还是被驳回了,多种条件的限制使得这条法律有很多种回避的方式。


第二,人类数据化和机器决策使用的广泛化,这实际上是不可回避的。所有的公司都在用机器决策,所有公司在用数据计算,如果要搞人类决策,效率实在太低了,这样的机构在人工智能时代没有办法生存。


第三,这种用人来监督机器决策的思路,最大的问题是这样能保证人的决策一定正确吗?能保证人能监督得了机器决策吗?源代码那么多能审得过来吗?效率、时间还有质量,都是很重要的问题。所以,我对它的评价就是如果空有制度,那么实施起来很难。


除了我们刚才说的这种对抗路径之外,我国于2018年颁布实施的《电子商务法》,实际上又给了另一种选择路径:逃离的路径如果搜索的推荐结果是个性化推荐算法提供给用户的,《电子商务法》第18条规定,电子商务平台必须为消费者提供一个非个性化的搜索结果。在我看来,如果不想受到机器决策,那这个方法不是去对抗它,而是提供一条逃跑的路线当然了,这个路径也有一定的问题:第一,它适用的范围,这只是我国《电子商务法》在很小的范围内的一个尝试;第二,这是立法者的一厢情愿,因为实际上没有所谓的非个性化的搜索推荐结果,只要用手机上网,肯定包括机器的识别号,包括基本地理位置,没有搜索结果是完全中立和自然的。


这两种路径的差别很大,主要在于它适用的范围并不相同,制度的目的也并不相同。但是,它们也存在共同点,都是赋予个体不受机器决策的自由。为什么在这个人工智能时代,我们把不受机器决策当作一种权利或者自由呢?不受机器决策自由有自身的法理意蕴。这种法理意蕴在于人不能作为一个客体,人不应该仅仅被简化成数据,而受到纯粹的机器决策。也就是说,它的制度价值在于保障人的主体性。20世纪80年代的欧洲立法文件,专门提到了受单纯的机器决策,会使人变得非人性化。整个机器决策的前提就是先把人变成数据,然后再用机器去计算这些数据。所以,在这个过程当中,人就成了生产链条中的一环,就变成了一个物,人被物化了,然后机器决策的过程又去人性化。所以,在这个过程当中人的智慧、伦理道德就被排除了,人的地位从主体变成了机器决策的客体。现在人很难逃离机器决策,逃离作为一个客体的命运。我们可以看到很多例子,比如说前段时间有一个新闻说,南京的环卫工人只要休息20分钟,就会被他的手环不停提醒“加油加油”。


进一步说,无论是逃离路径还是对抗路径,在不受机器决策之后都由人做出决策。人为决策背后有一个假设:人都是理性的,人是一定能够有实现意思自治的能力,做出一个理性决策的。而人一定是理性的这个假设(在我看来)已经不存在了。因为人的意思自治已基本上被各种各样无所不在的机器决策所引导和建构。人工智能时代,人越来越像物,物越来越像人。一方面人被机器化,人变成了流动的数据,被计算,自由意志被建构;另一方面我们开始讨论要不要给机器权利,讨论人工智能主体性问题。


在这个前提下,人享有不受机器决策的自由的意义在于:第一保有人的意思自治,第二保有人的主体尊严。那么,通过什么样的制度能保证人享有不受机器决策的自由呢?


我现在能够想到一些基本的制度构建思路:


第一个思路靠将伦理道德嵌入机器决策来补救其将人数据化和客体化的缺陷。因为人为决策和机器决策最根本的区别,实际上就是没有人的道德因素,而道德又很难被代码化。伦理的嵌入包括很多层面,包括算法设计层面、决策实施的层面等。


第二个思路就是限制的思路。有些决策不能完全交给机器决策,某些机器决策的闭环当中必须有人的因素。比较典型的一个例子,就是无人武器,无人武器是一个非常典型的纯粹的机器决策。美国军方就要求无人武器在发起攻击之前要执行六个步骤,而这六个步骤中的确定目标、确认射击,一定要有人的参与才行。


第三个思路还是要将私权救济作为制度的安全网。私权的介入肯定不是最有效的治理路径,因为它要求时间、精力的成本非常高。但是这就像国家对于产品质量安全的保护,肯定要维护产品的安全,靠的主要是国家设立质量安全体系和行政管理制度。但是对于消费者来说,产品质量责任的这种私权救济责任的路径是必要的保护底线。


阿西莫夫科幻小说中提出了“机器人三原则”:机器人不得伤害人类,机器人必须遵守人类的命令,还有机器人必须保护自己。如果我们去看波音飞机中争夺控制权的飞行员,以及带着手环的南京环卫工人,你还会认为那只是一个科幻小说吗?机器必须遵守人类的命令和机器不得伤害人类这两个原则在现实中已经被打破了。如何在人工智能时代贯彻这三个原则,可能是我们在进行制度建构的时候,在提倡人文关怀的时候需要考虑的问题。

胡 凌:平台视角下的人工智能的法律责任



我的思路和上午的讨论有点相关。我的文章的题目是一个套路的题目,看起来和已有的很多人工智能的论文差不多,但如果看下去就会发现内容不太一样。


我第一个思路主要是问题意识,也是今天上午戴昕谈论的“马法”的问题。实际上人工智能目前看来已经是一个“马法”了,在互联网大“马法”下面的小“马法”,而且这个小“马法”目前看来似乎是研究内容越来越庞大。通过我这个论文,我是希望能展示一个一般性的问题,就是说如何通过这样的一个特定的看上去好像相对独立的研究对象能够折射出一般的问题。


这个问题我感觉至少可以有两个角度,第一个角度,不把人工智能简单看作一个客体,而是把它看作至少是网络法的一部分,从而更进一步看作一般法律问题的一部分。从第二个角度而言,这与我之前的一些研究是连贯的,更多是从政治经济学的角度,把整个人工智能以及互联网看作生产过程,当然,可以是任何一个其他的社会过程,比如说控制过程或者说是娱乐过程,都可以。但是,我首先是把它看成一个生产过程,从而引出了包括平台责任、价值分配、数据搜集等一系列问题,都会跟这个东西连在一起。这是第一个思路。


我第二个思路,按照我刚才讲的,如果将其看作一个生产过程,就必然会导出这样一个问题:经济基础如何要求上层建筑做出改变,这个当然不一定会按照它的要求而改变,但是这个有意思的就恰好在于这个过程。究竟这个规则是否改变了,以及因何改变。也就是说,我探讨的是作为互联网时代一个非常重要的组织生产主体,原来是企业在组织生产,现在是由平台来组织生产,它们的要求有何不同?这个就属于所谓的特殊性,而且这个特殊性是互联网自己要求的,那么这种要求就是:互联网想要什么?恰好就是说我把人工智能也嵌套在平台生产的过程里边,就是思考所谓的人工智能更大的、一般性问题,恰好是智能性的平台,以及智能化的社会生产这么一个问题。


我第三个思路,可能跟之前大家的研究不太一样,之前大家研究往往是首先要么把它看成客体,比如说无人驾驶汽车的侵权责任,或者买一个智能音箱,或者说任何一个智能物件、接受智能服务这种简单的一个法律来讨论;此外可能会还有另外一种更加科幻的观点,把它看成法律或道德主体,好多人都在讨论将人工智能机器人作为法律上的拟制主体等,这方面也有很多讨论。


但我觉得,如果把它从生产方式的角度来看的话,可能会是一个简单的方法,不管是客体还是主体,它实际上都可以回应到一个更根本的东西,即生产方式的需求。但我并不是说按照主体/客体研究的思路错了,我感觉现在大家说什么其实都无所谓,现实变化太快了,写了一篇论文,社会不会记得说得是对还是错。关键是在研究方法上如何在知识上确保一个连贯性,有一些概念能通用。这样的话,无论有什么新的规则或者新的对象,都可以放到一个统一的框架下去观察,从这层意义上讲,我希望这个论文提出一些能够扩展法律分析的概念,当然不仅仅是法律概念。这是第四个思路。


第五个思路,我也不是说把它看成客体或主体在逻辑上有什么问题,而是说最根本上不是法学家或者说研究者他认为是主体还是客体,而恰好相反,研究者只是一个配角,或者说只是一个事后临门一脚的那样一个补充,而最根本的是生产关系的需求。就是平台生产发展到那样一个程度,它一定会要求说希望人工智能体或者产品或者服务成为一个客体,甚至成为一个主体,从而降低因网络化生产带来的风险和责任,在将来也许再过5年10年,法律上就会有人的要求,但是这种要求跟我们目前的学术论证没有任何关系,而是这种经济本身,它要求的就是这样。


为什么会是这样?我主要的讨论就在文章的第三、四、五这三个部分,分别讨论了作为智能化的平台,它是如何需要法律去变成什么样。当然在前面我也稍微跟风赶时髦,非得要回应一下我们上午也讨论了很多的代码理论,这个代码理论至少在美国最早的讨论里边,都是从一个规制或者控制的角度,但很少有人从生产性的角度。直到我觉得至少10年以后才陆续有一些文献开始讨论,将平台作为一种生产过程。


在第三部分我讨论了“网络”。网络和连接是如何被更加自动化地促成,生产经济价值以及在法律上面如何去受到保护?很多情况下我们在做网络法研究,但大家讨论的和网络没有直接关系。大家讨论的都是一个很具体的数据、算法,还有平台的服务提供商等,网络是一个特定的整体。


互联网又恰好演进成了平台主导,把人和人连在一起,这个抽象的东西其实是非常重要的。因此我就稍微回应了一下平台责任问题。2019年影响比较大的微信小程序的案子。法院当然可以按律师的建议把微信小程序看成所谓的基础服务,但实际上完全可以有另外一套论证来证明他需要承担责任,但这个不是我要说的重点。我要说的重点在于论证是有各种角度的,但平台需要什么样的一个论证方式,需要以一个二阶观察的方式进行反思。总的来讲,我们还是尽可能通过各种方式去要求,去促成更多的连接,减轻责任。


第四部分谈的是另外一个面向,自动化的底层服务,是“基础服务”的问题。基础服务大家也开始在谈了,但是有的时候会把它当成一个基础设施,有的时候是说它是一个免费的,比如说即时通信工具或者是搜索引擎这种最主要的一个核心服务,但它未必是一个基础设施。我就区分了这两类,分别讨论了这两类有什么样的法律冲突。总的来说,这个基础服务在未来是自动化平台的一个非常重要的一点,如果没有这个东西,这个平台经济不可能有效平稳地扩张、稳定地去生产价值,所以它一定需要法律去保护,但是它产生什么法律问题,我就不多说了,可能在竞争法上或者垄断法上都会有讨论。


第五部分就谈了一下“控制力”的问题,尤其是在劳动法里面,现在谈灵活用工谈得非常多,是劳动法上关于人员重组性的一些标准,我主要讨论了劳动法问题,也包括避风港的责任。我觉得本质上都反映出平台本身对于人们活动的控制和影响,有时候它是否知道它有多大的控制力,以及它在多大程度上能够去导向这样一些活动等,这部分可能写得比较粗糙,可能需要去细化,而且这个事情目前来看也是非常有争议的一个部分。

评议和讨论


评议


贾 开 电子科技大学公共管理学院讲师



胡老师这篇文章,我觉得延续了他非常深刻、非常能结合现实分析的一些思维习惯,相比单纯从想象空间来谈,有更大的收获。这篇文章的目的还是想讨论平台视角下人工智能的法律责任,但是,到底人工智能会带来什么样的变化?这个变化可以从两个视角来讲:


第一个视角是,如果跳出平台视角,平台本身会不会发生变化,比如说平台本身会不会被替代,或者说社区到底会不会成为一种新的模式,或者说会不会成为一个中心化的模式?在那样的情况下,合作社平台成为主流时,平台责任是不是又会发生变化?人工智能到底会给平台带来什么样的冲击,还是说仅仅只是提升自动化的水平?如果仅仅提高了自动化水平,可能还低估了人工智能的潜力。


第二个视角是站在平台内的视角。人工智能的确会强化平台权力,比如说平台会更多地用技术中性、自动化的构成来为自己免责。但是就现在来看,因为人工智能的出现,我们讲到的算法透明度等,大家越来越关注算法或者关注技术,这样反过来是不是会对企业本身也造成压力。比如Facebook会说我自己需要承担更多的社会责任,其实这样的观念已经不同于传统。从避风港来说我要卸责,但从舆论角度来讲,大家并不接受这样一个技术中立性。在这样的压力下,平台本身也会更多地顺势而为,主动说我要来承担更多的责任,而不完全是说技术中性。


然后这两个问题之外,从生产的角度来讲,我自己的一个想法就是,比如对代码而言,传统上是说平台在制定代码,或者说人在写代码。其实人在写代码这样的一个视角,一方面肯定了代码的规则属性,另外可能也限制了代码本身所具有的更大的解放的潜力或能力。就是因为人来写代码,那人能理解一个东西才能写,但是现在来讲不需要人来理解,就代码自己关于代码本身,自己就可以写,然后就可以应用到任何环境下。在任何环境下都能够实现数字化应用,那么代码就可能有更大的解放生产力的能力和潜力。


张老师的这篇文章也写得非常宏大,我觉得也非常详细深刻,在思维逻辑上有很大的收获。对于人跟机器的关系或者人机关系来讲,我们可能一般会提到三种思路:一种是对抗的思路;另一种是工具的思路,人工智能就是我们人类所设计的产品工具,所以说它不具有主体性;还有第三种协同的思路,人跟机器的关系,不完全是说人受机器的限制,或者说机器受人的限制。就像传统来讲,比如像我们可能讲自动化的发展史,比如说马克思所讲的珍妮纺纱机和雅卡尔织布机。其实这两种都是机器,但这两种机器到底谁会占据主流,并不完全是一个机器决定的过程,可能是人在嵌入机器或者机器在嵌入人,就是人机协同的一个过程。从这个角度来讲,也许会涉及机器决策和人的决策的自由度的问题,的确没有那么强的对抗性,但这还是说人和机器可能达到一个相对的平衡。


为什么我们会对机器的决策产生一定的恐惧,是不是有可能因为我们认知的偏差,比如说我们说机器决策有偏差,算法有歧视,但事实上人的歧视是更大的。也有人说我们人在说雇佣关系的时候,我们更倾向于雇佣成年人或者男性。但是用机器来说,说机器有歧视,其实机器的歧视肯定是比人更低。不过另一方面,我们不能接受机器有歧视,但我们能接受人有歧视,就像我们能接受人开车撞人,但不能接受机器自己开车撞人。这是一个认知的问题。所以换个角度来思考,机器决策、人的决策并没有那么强的对抗性。


还有一个问题是伦理的可计算性问题,我觉得也是很有意思的一点,就是伦理到底是不是可嵌入(伦理的可计算性问题)机器?机器伦理怎么样被嵌入机器当中,从上到下或从下到上,这个过程其实也会有很多的争议,也会有很多的途径,所以我觉得还存在很开放的讨论空间。


再补充一下,对于计算机的算法化或者算法的去人类化还有很有意思的一点,就是所谓的福特制和后福特制的一个比较。我觉得比如流水线,其实也是去人性化,那个时期讨论福特制和后福特制,对于我们现在讨论机器的去人性化,或者算法去人性化,是不是也会有启示。但是,我不知道怎么来具体地分析。也许我们比较历史,对我们现在的事业也有一定的帮助。


回到第一篇文章关于算法透明度的问题。透明度的这个问题,我完全赞同透明度本身并不是一个问题,它不是一个关键。透明本身可能并不是目的,但是透明的好处是开源,开源的好处是从生产角度来讲,促进更多人生产,也可以促进更多人监督。比如说算法本身一定会有漏洞,但是对于开源或者透明来讲,其实是可以有更多的人来监控它,其实起到了一个监督的作用。作为一个制衡的机制。开源也有开源的问题,透明也有透明的问题。刚刚讲的我们也会造成混乱,也会造成一个投机性的那种应对的方式,不能把透明当作全部,而它有它自己的定位,把它作为一个辅助的位置来看,可能会比把它作为一个主导性的位置来看更好。


杨安卓 华中科技大学法学院讲师



第一建议,我觉得当我们在讨论算法的时候,不应该把它当作一个黑箱,尤其是不应该把它当作一个很神秘的东西。可是我发现大家已经有了这种在我看来很不良的倾向。大家把人工智能、算法神化了,算法是一个非常简单的东西。我举个最简单的例子,其实连动物也可以懂算法,比如《庄子》的故事,朝三暮四,早上给猴子三颗糖,下午给它四颗,下午比早上多一个奖励,这就是一个算法,是一个加法。


加减乘除就是简单的算法,算法可以简单,也可以复杂,算法就是解决某一个特定问题的有穷规则的集合,它就是很不神秘的东西,其实应该说是很清晰很明确,有着很机械的规则,它和我们所使用的硬件软件的工具其实是一个道理。只不过当它变得非常复杂的时候,有一些东西进入了我们所不能理解的领域。所以,第一个建议不要把算法当作对象。


第二个建议就是研究人工智能的问题,一定要有非常清晰的时间颗粒。是站在5年的立场上看问题,还是站在10年的立场上,还是20年的时间颗粒上看问题,得出的结果可能是非常不一样,就这一点来说,我很欣赏胡凌的文章,他就看得很清晰。也许我们今天说的到了明天都是废话。但是既然我们今天讨论这个问题我们就不得不说,所以他对技术发展的时间线很清晰。他知道奇点可能会来临,但是现在还没有来临。这就不像绝大多数的研究,开篇先是很实证的一个研究,然后马上第二段话就跳到科幻去了,这就没有办法在一个明确的时间颗粒上来具体讨论这个问题。


我们今天的人工智能发展到什么程度?核心其实还是统计,还是用机器学习的方法来对人类的智慧和经验行为做出的一个拟合曲线。它和我们想象中的宣传中的人工智能其实差别是非常大的。所谓的主体性这东西,可能未来会有,但是现在一定没有,在讨论的时候,一定要像胡凌那样把时间颗粒说得非常清晰,这是我非常建议的。


沈伟伟老师的文章,我是特别赞赏他的结论,但是我的思路可能和他有一点点不一样,我就来补充一下。他说算法透明可行吗?算法透明必要吗?我这里要加上一个问题,算法透明值得吗?为什么?因为如果我们要把这个算法黑箱打开,我们要去监督算法、解释算法,它本身是需要很大的成本和开销的。去年GDPR实施,今年掌握着图灵奖的美国人,立刻就唱反调了,今年图灵奖授予了3个人,一个叫Yoshua Bengio(约书亚·本吉奥),一个叫Geoffrey Hinton(杰弗里·欣顿),还有一个叫Yann LeCun(杨昆)。这三个人做的东西通通都是算法中最不具有解释性的——深度学习算法。


第三个建议,就是当我们讨论算法的时候,不要抽象讨论算法,就像计算机的学者讨论法律的时候就抽象讨论法律,没法抽象讨论对算法的规制,因为有的算法就是可以解释的,有的算法就是不可以解释的。


然后是张老师的机器决策的问题,其实我觉得这里有一个很简单的方案,说穿了,其实这是一个人机耦合的问题。在不同的情况下,人们赋予这个机器决策的终极性的决定权,在不同的情况下有不同的要求,有些时候它是永远不会把决策权给人的。举个例子,飞机绝对不会给飞行员一个权利,让他可以在出事的时候自己弹跳或者是跳伞逃跑,一定要让他与机同亡。


但是有的时候,比如说波音737 MAX这个事情出来的时候,如果把最终决定权掌握在飞行员手里,那么,整个大局可能会发生变化,实际上我觉得这是一个人机耦合的问题。它的基本原理是什么呢?我个人认为倒不是说这个人的主体性丧失了。机器,用赛尔的话来讲是“无意识则无人格”。人工智能在它没有产生意识之前,它是永远不会有什么主体性的,也不会有价值观的,也不会有对伦理和道德的判断,它都是在执行它该执行的命令,但是机器和人相比有很大的差异,如果把人当作机器的话,就是机器的鲁棒性比人要差(注:鲁棒性即robustness的音译,就是稳健性,就是出错以后的自我调整的能力)。如果人操作机器出轨了,他会把机器停下来继续调回来,可是如果机器出轨了,所有的东西便没有办法回到原轨。所以当某一个体系比如飞机,当它对鲁棒性的要求特别高的时候,我们在这个人机结合的系统中,要给人更多的权利;在对鲁棒性要求比较低,然后对效率要求比较高的时候,可以赋予机器自身更多的权力。我认为这是一个人机结合的比较合理的一个策略要求,但是,我认为它和这个人的主体性的丧失是没有关系的。因为不管有没有把人的所有参数数据化,人的主体性是没有丧失的,因为迄今为止我们知道宇宙间只有一种东西,只有人有意识,有意识才会有主体性。

讨论

许 可

对外经贸大学法学院讲师、数字经济与法律创新研究中心执行主任讲师


其实我觉得张老师的这篇文章有浓浓的德国的色彩,所谓人有不受机器决策的自由,实际上就是用康德的观点。


但是,我觉得很多时候在讨论这句话时说人不是手段,只表达出了康德的部分思想。实际上康德的话很清楚,人不仅仅是手段,他承认人可以是手段,但绝对不仅仅是手段。所以,对这个问题的追问实际上就是对人机的关系的追问,某种意义上来说,就是人不能完全被排除在机器角色之外:我可以被机器决策,但是在很多时候我可以出场,该出场的时候我要出场。


在德国,真正对技术或对科学更大的一个反思批判,肯定要从海德格尔说起。海德格尔解释了人是如何被机器、为技术所物化。他举了一个例子,指南针是人发明的,人靠这个去航海,但是后来我们发现这艘船都已经变成钢铁了,指南针都只能乱转,它就没有办法去给人指方向了。所以,我们要重新回到传统——看星空。这里面讲的一个问题是,作为人,他为什么会接受被技术或机器所决定?其实,技术并不是外在于人的,因为技术是人发明的,代码是人写的。人之所以会觉得被技术所决定、被技术所碾压,不是说我不承认技术是比我更高的存在。其实没有可能性,刚才就像安卓说的话,机器没有什么人格,人这个时候不太可能会产生丧失主体性的问题。在海德格尔看来,技术区分为两种,一种技术叫数字化的技术,另一种技术就是技艺,后者才是人的本质的反映。为什么人不喜欢被机器所决定,是因为机器里面重要是数字化的技术,没有技艺,没有那种不能被数字化的东西,所以他觉得这一点他不可能接受。我们生活在一个冷冰冰的时代、一个不能令人着迷的时代。所以,问题可能不光在于主体的概念,还有主体如何和技术共存的问题,当然这可能太形而上了。怎么解决这个问题呢?实际上我非常赞同前面所讲的人机协调,实际上讲怎么去分配,因为技术它本来就反映了人的一部分,但另一方面来说,要承认人在技术之外有自己的创造性,有一些技艺成分。此外,如刚才安卓说的,决策中的弹性和灵活性的问题也很重要,我们如何将这些东西结合起来,需要更多的思考。



(责任编辑:蔡 伟

(公众号学生编辑:蔡梓园

法规速递

 ▷ 《中华人民共和国电子商务法》

 ▷ 《欧盟通用数据管理条例》(GDPR)

★ 数据与治理——“网络法的理论与视野”工作坊专题四 ||《地方立法研究》

★ 隐私与被遗忘权——“网络法的理论与视野”工作坊专题三 ||《地方立法研究》

★ 版权与平台——“网络法的理论与视野”工作坊专题二 ||《地方立法研究》

★ 网络法研究方法论——“网络法的理论与视野”工作坊专题一||《地方立法研究》

★ 戴 昕:超越“马法”?——网络法研究的理论推进 ||《地方立法研究》

★ 《地方立法研究》2019年第4期目录与摘要

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存