查看原文
其他

[英] 约翰·金斯顿:人工智能与法律责任 ||《地方立法研究》


 作  者 : 约翰·金斯顿(英国布莱顿大学安全智能可用系统中心高级讲师)

 译  者  魏 翔(中山大学法学院博士研究生)

 来  源 :《地方立法研究》2019年第1期,因篇幅较长,已略去原文注释。


最近,在一本热门的计算机信息处理技术杂志中,提出了一个关于人工智能和法律责任的问题,如果一个行人被自动驾驶汽车杀死了,应该适用什么法律。本文将关注人工智能计算机系统的相关法律责任问题,还将讨论人工智能计算机系统是否需要承担刑事法律责任,谁可能承担;在民事法律中,人工智能程序是作为一种适用产品设计法的产品,还是作为一种适用过失侵权的服务。此外,文章还讨论了销售保证的问题,以及人工智能系统面临的一些实际局限。

关键词人工智能   刑事法律责任   民事法律责任   人工智能系统的局限性


一、引言

二、法律责任

三、人工智能系统的局限性

结论

有一本热门计算机期刊的最新一期,提出了以下问题:


这是2023年,自动驾驶汽车第一次在城市街道的行驶中攻击并杀死了一名行人。一场诉讼肯定会随之而来,但究竟适用什么法律呢?没人知道。


这篇文章还指出,可能适用的法律是处理产品设计缺陷的法律制度。然而,此文认为,使用产品缺陷法会阻碍自动驾驶汽车的发展,产品设计问题案件的处理数量(在美国)明显高于人类过失案件的处理数量几乎10倍,这还不包括召回产品的额外成本。这篇文章还认为,此类案件应作为过失案件处理,就像人类司机一样。作者引用美国侵权法标准导论中的规定:“对于过失行为而言,一种糟糕的精神状态既不是必要的,也不是充分的,行为就是一切。”


还有其他问题可能在2023年之前出现。这篇论文的作者最近租了一辆车,其中有几个新的安全特性。其中一个特性是,当汽车行驶速度在4到19英里每小时之间,如果汽车的雷达探测到即将发生碰撞,那么汽车的引擎就会被关闭以避免发生碰撞。


当作者倒车离开私人车道时,作者将车开得离旁边的障碍物太近,汽车近距离警报被触发,引擎被关闭。其实,当倒车时适当调整方向盘位置,也可以躲避障碍物。但是,根据当时的情况,如果汽车仍处于倒档状态,引擎就不会重新启动。因此,作者如果想继续倒车,就不得不把汽车档位调至前进档,向前适当前进并调整方向。


以上的情形全部发生在私人车道上,然而,如果以上情形发生在汽车尾部准备驶进道路中,而且一辆重型卡车正以某种速度向汽车行驶时,大多数司机会宁愿冒着车辆油漆被障碍物刮掉的风险,也不愿坐在一辆拒绝重新启动并需完成所要求操作的汽车上。一些司机会因此卷入一场严重事故,而他们将责备这些“安全特性”,这种情况似乎是不可避免的。


本文的目的是思考人工智能当前的能力,或者人工智能不足的地方,然后再重新探讨人工智能在上述案例中可能存在的法律责任问题。


首先,确定什么是这篇文章中所指的“人工智能”是十分重要的。在人工智能领域,有研究人员认为任何模仿人类智力的东西,不管以什么方法进行,都属于“人工智能”;还有一些研究人员认为,人工智能程序只是那些模仿人类思维方式的程序;在信息系统领域,也有研究人员将许多“人工智能”程序仅仅视为复杂的信息系统,他们认为真正的人工智能应是元决策(meta-level decision),后者有时被描述为智慧。


而在这篇文章中,任何能够识别情况或者事件的计算机系统,并且以“如果存在这种情况,那么建议或执行这个行动”作为决策形式的系统,都是一个人工智能系统。


(一)刑事法律责任


以下引用的参考文献主要是指美国法律,但是其他司法管辖区在相关领域也有相似的法律规范哈勒维(Hallevy)在其文章中讨论了,人工智能实体如何,以及是否可能被追究刑事法律责任。刑法一般要求有犯罪行为和犯罪意图,为利于问题的探讨,哈勒维对刑法进行了以下分类:


(1) 有些犯罪行为由积极的行动组成,有些犯罪行为也由不作为构成组成。

(2) 有些犯罪意图需要认识或者被告知,有些犯罪意图只需要过失(一个理性的人本应知道);严格责任犯罪中没有任何犯罪意图需要被证明。


哈勒维还提出了人工智能系统犯罪行为的三种法律模型:


(1) 犯罪者通过他人犯罪。如果犯罪行为是由一个精神有缺陷的人实施的——一个小孩子或者一只动物,那么罪犯被认为是一个无罪的主体,因为他们缺乏构成犯罪意图的心智能力(即使是严格责任犯罪也是如此)。然而,如果这个无罪主体是受其他人命令或指示的(比如,如果狗的主人指示他的狗去攻击某人),那么指示者需要承担刑事法律责任。基于以上模型,人工智能程序可以被认为是一个无罪主体,软件程序员或用户则被认为是犯罪者通过他人犯罪中的情形。


(2) 自然可能的后果。在这个模型中,一部分本为良好目的设计的人工智能程序被错误地激发,并且产生了犯罪行为。哈勒维列举了一个案例,日本的一名摩托车厂员工被一个在他旁边工作的人工智能机器人杀死了。机器人将该员工错误地认定为是其完成任务的威胁,并计算出消除这种威胁的最有效方法是将其推向相邻的操作机器。机器人用它非常强大的液压臂,把惊讶的工人猛烈地撞到相邻机器上,当场杀死了他,然后又恢复了工作。


对“自然可能的后果”中责任的正常法律适用是起诉共犯。如果罪犯的犯罪行为是在共犯鼓励或帮助下的自然可能的后果,只要共犯意识到犯罪计划正在进行中,即使没有共同犯罪意图被证明,该共犯仍然可能需要承担法律责任(在美国法律实践中)。


因此,如果用户或者(更可能)程序员知道犯罪行为是程序或者应用的一种自然可能的后果,他们需要承担法律责任。这一原则的应用必须区分人工智能程序“知道”一项犯罪计划正在进行中(它们已经被设定为执行一项犯罪计划),还是“不知道”(它们被设定为另一个目的)。在后一种情况中,人工智能程序很可能由于缺乏犯罪意图而不被起诉。


(3) 直接责任,这个模型将犯罪行为和犯罪意图都归因于人工智能系统。


将犯罪行为归因于人工智能系统是相对简单的,如果一个人工智能系统采取了一项行动,并且该行动构成犯罪,或者当有需要承担义务时却没有采取行动,那么就产生了符合犯罪构成要件的犯罪行为。


确定犯罪意图较为困难,所以三个层次的犯罪意图是十分重要的。对无需犯罪意图的严格责任犯罪,人工智能程序确实有可能承担刑事责任。如自动驾驶汽车的案例,超速行驶是一种严格责任犯罪,所以根据哈勒维的理论,如果一辆自动驾驶汽车被发现违反了道路的限速规定,正在“驾驶”汽车的人工智能程序很可能需要承担该刑事法律责任。


这种可能性引发了哈勒维所涉及的许多其他问题,包括抗辩理由(人工智能程序发生故障的抗辩理由是否可以与人患精神病的抗辩理由相类比,人工智能程序受到电子病毒影响的抗辩理由能否与人受强迫或中毒的抗辩理由相类比)和处罚(谁或什么会因一个人工智能系统承担直接责任的犯罪而受到处罚)。


(二)木马病毒的辩护


在人工智能系统的法律责任辩护中,谈及一些案件是十分重要的,这些案件中,一些被控告网络犯罪的辩护方成功提出辩护。比如,有的辩护方认为犯罪嫌疑人的电脑被一个木马或类似的恶意软件所控制,这些软件利用被告人的电脑犯罪,但被告人并不知情。其中包括一个发生在英国的案例,在一部含有儿童不雅照片的电脑中,也被发现有11个木马程序;还有另一个英国的案例,一名青年电脑黑客对其拒绝服务的攻击的指控进行辩护,这次攻击是由一个木马程序在其电脑上进行的,然后木马程序在法庭分析前从电脑中被其自动清除了。辩护律师成功地说服陪审团,令他们相信这样的情形并没有排除合理怀疑。


(三) 民事法律责任:侵权行为与违反保证


1.  过失

当软件有缺陷时,或者当一方因使用软件而受到伤害时,由此产生的法律诉讼通常适用过失侵权而非刑事法律。葛斯纳(Gerstner)讨论了成功证明过失侵权主张所必要的三个要素:


(1) 被告人有注意义务。

(2) 被告人违反了这项义务。

(3) 违反义务的行为造成了对原告的伤害。


关于第一个要素,葛斯纳认为,软件供应商对消费者有注意义务,这是毫无疑问的,但是决定供应商需要承担什么标准的注意义务是困难的。如果所涉及的系统是一个“专家系统”,那么葛斯纳建议恰当的注意义务标准是专家级的,或者至少是专业级的。


关于第二个要素,葛斯纳提出了人工智能系统可能违反注意义务的多种可能方式:开发者本该可以检测到的程序功能中的错误;一个错误或者不完备的知识库,错误或不完备的文件和提醒信息,没有保持知识库的更新,用户提供了错误的输入,用户过度依赖输出,用户使用程序的目的是错误的。


关于第三个要素,人工智能系统是否可以被认为造成了伤害?对此尚无定论。关键的问题可能是,人工智能系统是否在给定的情况下“建议”采取行动(如许多专家系统),或者“直接”采取行动(如有自动驾驶和安全装置的汽车)。在前一种情况中,必须涉及至少一个其他主体,因此很难证明因果关系;在后一种情况中,证明就显得简单很多。


葛斯纳还讨论了在美国法律背景之下,“严格责任中过失”的一种例外情况。这适用于在正常、有目的、可合理预知的情况下,使用的产品有缺陷或不合理的危险,并造成损害(而不是经济损失)。此外,关于人工智能系统是一种产品,还是仅仅是一项服务的讨论中。她引用了一个案件,该案件中电力被认为是一种产品。因此,她倾向于将人工智能软件定义为一种产品而不是一项服务。假设人工智能系统确实是一种产品,人工智能系统的开发人员有责任确保他们的系统不受设计缺陷、制造缺陷、不恰当提醒和指令的影响。


科尔(Cole)对人工智能软件是产品还是服务的问题进行了更广泛的讨论。他的结论是,将人工智能系统视为产品充其量是“部分适用”,他更倾向于将人工智能系统视为一种服务而不是一种产品,但他承认关于这个领域的法律定义是不明确的。


科尔列举了一些关于人工智能系统必须遵守注意义务的法律案件:


(1) 一个学区对统计部门提出了一个过失侵权索赔,因为统计部门所提供的关于学校被烧毁的价值计算不准确,导致该学校因保额补偿不足而造成损失。案件中所指的义务是在合理注意的基础上提供信息,法院考虑了一些因素包括:如果有的话,是否存在信息准确性的保证;被告关于原告将依赖于这些信息的认识;对一个小群体的潜在责任的限制;缺乏当发现错误而进行任何修正的证明;要求一个无罪当事人承担由其他人的专业上的错误产生的后果是不好的;在信息(工具)提供者中推广提醒的技术。


(2) 科尔还讨论了从不合理输入中提供合理结论的义务。根据另一案件,他认为人工智能系统的开发者很可能需要承担一个积极的义务,以提供相对实惠的、无害的、简单的输入错误检查技术,并且需要注意到一些规则可能不适用于人工智能程序的执行功能,其中错误输入可能直接危及生命(例如给病人用药)。在这类案件中,他建议改用与“极端危险活动和工具”的相关规则。


(3) 科尔提出,必须认识人工智能系统的局限性,而且这种局限性的信息必须向消费者传达。众所周知,供应商有责任告诉消费者任何已知的缺陷,但是如何确定未知的威胁或缺陷,然后与消费者进行沟通呢?


2.  违反保证

如果人工智能系统确实是一种产品,那么它必须在有保证的基础上销售,即使供应商没有明确的保证(或者由用户购买),有一种默示保证(根据英国产品销售法1979),“如其所描述的那样令人满意,并有一个合理的使用时间”。一些国家允许默示保证在合同条款的影响下失效,然而当一个人工智能系统被购买用于其他商品时(比如汽车),似乎不太可能将此类合同(如在汽车制造商和人工智能软件供应商之间)中的排除默示保证条款传递到汽车消费者身上。


(四)法律责任:小结


      人工智能系统是否需要承担法律责任的问题似乎取决于至少三个因素:


      (1) 人工智能系统的局限性,以及这种局限性是否被认识和向消费者传达。

      (2) 人工智能系统是一种产品,还是一种服务

      (3) 人工智能系统的犯罪行为是否需要犯罪意图,还是一种严格责任犯罪。


     如果一个人工智能系统被追究法律责任,那么,问题就在于它以什么身份承担责任。是作为一个无罪主体,一名共犯,还是一名罪犯。本文最后一部分将讨论上述要素中的第一个。


人工智能系统的各种局限性可分为两类:具有相同知识的人类专家也具有的局限性;与人类相比,人工智能技术特有的局限性。


(一) 影响人工智能系统和人类专家的局限性


影响人工智能系统和人类专家的局限性,与具体问题的知识有关。


第一,知识可能会迅速改变。这要求人类和人工智能系统都需要了解最新的知识,以及在已有知识中分辨出哪些是已经过时的。这是否构成一个问题完全取决于具体领域:在自动驾驶汽车的案例中,驾驶汽车所需要的知识改变的速度确实非常缓慢,然而,在网络安全的领域,关于漏洞和补丁的知识每天都在变化。


第二,这些知识范围可能太广,以至于无法考虑到所有的可能性。在这类任务中,人工智能系统实际上比人类专家表现得更好——它们可以搜索数千个甚至数十万个解决方案——但仍有一些任务的范围比这还要大。特别是在规划和设计的任务中,可能的计划或设计的数量接近于无限。相比之下,需要在固定框架内,进行规划和设计,则不那么复杂,尽管可能的选项可能仍然会达到数千个。在这种情况中,人工智能系统可以保证在大部分情况下给出一个好的答案,但它不能保证在所有情况下都提供最好的答案。


从法律角度而言,解决这些问题的方法是让供应商提醒消费者这些人工智能系统的局限性。在快速变化的领域,如果供应商不提供及时更新系统知识的方法,可能会被认为是法律上不合理的(legally unreasonable)。这引发出另一个问题,如何界定“快速变化”?与以往一样,依照法律规定的测试是合理的,这通常与人工智能系统的预期使用时间相比较。因此,如果知识的改变是一年一次(如计算个人纳税义务的人工智能系统),如果供应商提醒消费者知识可能会发生变化,这样的提醒可能会被裁定为“合理”。但是由于税法的复杂性,使得任何税法知识的更新都不仅要求下载数据和信息文件; 还需要一个新开发和经过测试的系统。所以,如果供应商只是提供了知识的自动更新,又很可能被裁定为“不合理”。


与此相反,人工智能系统可能是建立在(表面上是不可动摇的)假设的基础上,如帮助地方政府计算家庭福利的人工智能系统,是建立在婚姻是一夫一妻之间关系的假设基础上。现在这个知识已经变成允许任何两个成年人之间的婚姻。在这种情况下,要求供应商提醒消费者这些法律会改变,这样合理吗?虽然目前这种法律的变化似乎不太可能,但在美国,一个女人已经尝试和她的狗结婚,还有一个男人要和他的笔记本结婚。此外,一些宗教团体长期以来一直游说将一夫多妻制度合法化。


在美国科辛安巴诉塞尔公司案中,尽管案件设计的药品已被美国食品药物管理局认可为“安全有效”的产品,但由于药品制造商未提醒消费者,若同时使用另一种特定药物可能会引发盆腔炎,因而在该案件中药品制造商被裁定负有法律责任。因此,关于合理要求提供提醒的边界确实取决于知识,而不是监管批准。


麦基顿(Mykytyn)等人讨论了人工智能系统的法律责任问题,这些问题与鉴定和选择人类专家有关。他们引用了两个案例,由于未能挑选有能力胜任的内科医生提供医疗服务,医院需要为此承担法律责任;类比可知,除非人工智能开发者选择在特定领域有足够能力的专家,或者提醒用户该人工系统专家的能力不能扩展到可能使用该系统的其他领域,否则人工智能开发者需要承担法律责任。


麦基顿等人提出的解决方案是,使用得到许可的以及有保证的专家。他们指出,授权机构所要求的标准,有时被用来确定专业人员的表现是否达到预期的水平,他们甚至建议让人工智能系统自身获得许可。美国证券交易委员会对此特别感兴趣,他们需要一个作为财务顾问的股票市场推荐系统,还有需要一个作为投资顾问的开发商分类投资建议程序。


(二)影响人工智能系统但不影响人类专家的局限性


最关键的局限性是人工智能系统缺乏常识。人类拥有大量的知识,尽管这些知识与特定的任务暂时没有直接关系,但随着情况的变化可能会变得具有相关性。比如,当驾驶车辆经过一所学校时,最好以缓慢的车速通过,特别是如果你发现学校外面停着一排车,或者你知道当时是临近学校放学的时间。这样做的原因是为了避免孩子们从车后面冲出来的风险,一个人类司机的常识包括认识到一些小孩子缺乏充分的道路安全意识。而对于自动驾驶汽车而言,除非是设置了特定的规则,或者一组关于异常危险位置的一般规则,否则自动驾驶汽车不会知道在哪个时段和位置应该以缓慢速度通行。


但是,在一些情况下,人类无法运用他们的常识来分辨危险的情形。正如一位评论员曾经说过:“皮带驱动的‘真空吸尘器’和范德格拉夫发电机有什么不同?答案是几乎没有,但请不要用那种真空吸尘器清理你的笔记本电脑。”然而,如果没有常识,人工智能系统就没有机会认识到这种情况。


在涉及边缘情况(一个变量具有极值)或者角落情况(多个变量具有极值)时,人工智能系统有着退化的问题。当人类面临他们以前认为不太可能或不可能的情况时,他们通常选择对情况会产生积极影响的行动方案;当人工智能系统面临它们程序没有涉及的情况时,它们通常根本无法执行。


比如这样一个边缘情况,在本文开头给出的汽车驾驶案例中,(假设)当一辆卡车正压在汽车上,而此时汽车拒绝启动。而且,汽车的安全系统似乎没有关于驾驶员的设计,汽车提醒司机在采取其他行动之前,他们的路线是安全的。但这并没有考虑到以下事实,一条路线可能只能在短时间内安全,这种类型的边缘情况比预期更常见。


在角落情况中,1983年9月26日,苏联预警卫星显示美国有一颗核导弹发射,继而显示有两颗核导弹发射,最终显示美国当天共发射了5枚核导弹。当时正值美国和苏联之间政治关系紧张的时期,苏联的政策是用自己的导弹进行报复。负责的军官有几分钟的时间来决定该做什么,但他没有得到进一步的信息,于是他选择把这条信息当作假警报,原因是他认为:“当人们要开始一场战争时,他们不会只发射5枚导弹”。


后来发现,这颗卫星把太阳从云层中反射出来的信号,误认为是导弹发射的热信号。卫星的轨道设计是为了避免这些错误,但是在那一天(接近春分),卫星的位置、太阳的位置和美国导弹场的位置加在一起,共产生了5个错误的读数。


如果一个人工智能系统负责苏联的导弹发射控制,它很可能没能识别出卫星的任何问题,并向美国发射了导弹。然后,它将对随后的破坏承担法律责任,尽管还不清楚是否会有生还的律师来提起诉讼。


第三个问题是,由于输入的质量较差,人工智能系统可能会缺乏人类使用的信息。在汽车安全系统中,这是肯定的。案例中的自动驾驶汽车唯一的输入设备是探测范围相对小的雷达探测器,这种探测器无法区分障碍物和卡车,也不能探测虽在远处但正迅速接近的物体。如果一个案件是关于这类安全系统引起的事故,那么,庭审重点可能将放在人工智能系统的程序是如何处理这些不精确的输入的。


还有关于非符号信息的问题。在知识管理的领域中,经常会看到这样的观点,人类知识永远不能被完全密封在计算机系统中,因为它太直观了。金斯顿认为这种观点在很大程度上是不正确的,因为它是建立在不理解各种隐性知识的基础上,但他的确认为非符号信息(基于数字的信息、形状、类似材质的概念、生理信息,比如一个芭蕾舞者的肌肉运动),以及由其产生的技能和知识,几乎超过了所有人工智能系统的知识范围。


在某些领域,这些非符号性的信息是至关重要的。比如医生和病人的诊断交流中,医生不仅可以通过病人的言语,也同样可以通过病人的肢体语言来提取大量信息。有一些针对英国当前基于电话的诊断服务的评论,评论认为可以通过国民健康服务热线这类信息,追溯到所缺乏的专业医疗人士。在汽车驾驶的案例中,非符号信息可能包括由其他司机闪烁的车前灯,司机以这种方式将信息从一辆车传递到另一辆车,这些信息并不是至关重要,但是对于成为一个尊重他人的司机来说是很重要的。


确定人工智能系统的法律责任至少取决于以下三个因素:


(1) 人工智能是一种产品还是一种服务。这在法律上仍不明确,人们看法不一。

(2) 如果考虑是否涉及刑事犯罪,那么犯罪意图是必要的。人工智能程序似乎不太可能会因为具备知道该犯罪行为正在发生的认识而违反法律;但它们很有可能会违反“理性的人应当知道”的法律规定,而这一行为将导致犯罪,并且几乎可以肯定,它们会构成严格责任犯罪。

(3) 人工智能系统的局限性是否向消费者传达。由于人工智能系统兼具一般和特别的局限性,关于此类问题的法律案件裁判依据,很可能是制造商是否以具体措辞的方式对这些局限性做出任何类似的提醒。


还有一个问题是谁应该承担法律责任,这将取决于哈勒维的三个模型适用。


(1) 在犯罪者通过他人犯罪模型中,命令人工智能系统的人——用户或者程序员——最有可能承担法律责任。

(2) 在自然可能的后果模型中,法律责任可能会落到任何人身上,只要他能在犯罪发生前预见到产品的使用方式,会如犯罪发生时的方式进行,所以程序员、供应商(产品)或者服务提供者均有可能承担法律责任。用户不太可能承担法律责任,除非产品或服务的说明书有特别的细节,清楚地说明了系统的局限性,以及在特殊细节上误用所可能产生的后果。

(3) 在直接责任的模型中,如果是程序员很可能发现出错的案件,那么,人工智能程序也有可能构成严格责任的犯罪。


但是,在所有程序员被认为需要承担法律责任的案件中,都需要进一步讨论人工智能系统中所产生的错误是否与程序员有关,是否与程序设计者有关,是否与提供知识的专家有关,是否与任命不适当的人作为专家、程序设计者和程序员的管理人员有关。



 参考文献 

[1] Greenblatt, N.A.: Self-driving Cars and the Law. IEEE Spectrum, p. 42 (16 Feb 2016)

[2] Dobbs, D.B.: Law of Torts. West Academic Publishing (2008)

[3] Hallevy, G.: The Criminal Liability of Artificial Intelligence Entities. http://ssrn.com/abstract=1564096 (15 Feb 2010)

[4] Morrisey v. State, 620 A.2d 207 (Del.1993); Conyers v. State, 367 Md. 571, 790 A.2d 15 (2002); State v. Fuller, 346 S.C. 477, 552 S.E.2d 282 (2001); Gallimore v. Commonwealth, 246 Va. 441, 436 S.E.2d 421 (1993)

[5] Weng, Y.-H., Chen, C.-H., Sun, C.-T.: Towards the human-robot co-existence society: on safety intelligence for next generation robots. Int. J. Soc. Robot. 267, 273 (2009)

[6] United States v. Powell, 929 F.2d 724 (D.C.Cir.1991)

[7] Sayre, F.B.: Criminal responsibility for the acts of another, 43 Harv. L. Rev. 689 (1930)

[8] Brenner, S.W., Carrier, B., Henninger, J.: The trojan horse defense in cybercrime cases, 21 Santa Clara High Tech. L.J. 1.http://digitalcommons.law.scu.edu/chtlj/vol21/iss1/1 (2004)

[9]Tuthill, G.S.: Legal Liabilities and Expert Systems, AI Expert (Mar 1991)

[10] Gerstner, M.E.: Comment, liability issues with artificial intelligence software, 33 Santa Clara L. Rev. 239. http://digitalcommons.law.scu.edu/lawreview/vol33/iss1/7 (1993)

[11] Ransome v. Wisconsin Elec. Power Co., 275 N.W.2d 641, 647-48. Wis. (1979)

[12] Cole, G.S.: Tort liability for artificial intelligence and expert systems, 10 Comput. L.J. 127 (1990)

[13] Independent School District No. 454 v. Statistical Tabulating Corp 359 F. Supp. 1095. N.D. Ill. (1973)

[14] Stanley v. Schiavi Mobile Homes Inc., 462 A.2d 1144. Me. (1983)

[15] Helling v. Carey 83 Wash. 2d 514, 519 P.2d 981 (1974)

[16] Restatement (Second) of Torts: Sections 520-524. op.cit

[17] Kociemba v. GD Searle & Co., 683 F. Supp. 1579. D. Minn. (1988)

[18] Mykytyn, K., Mykytyn, P.P., Lunce, S.: Expert identification and selection: legal liability concerns and directions. AI Soc. 7(3), 225–237 (1993)

[19] Joiner v Mitchell County Hospital Authority, 186 S.E.2d 307. Ga.Ct.App. (1971)

[20] Glavin v Rhode Island Hospital, 12 R. I. 411, 435, 34 Am. Rep. 675, 681 (1879)

[21] Bloombecker, R.: Malpractice in IS? Datamation 35, 85–86 (1989)

[22] Warner, E.: Expert systems and the law. In: Boynton and Zmud (eds.)Management Information Systems, Scott Foresman/Little Brown Higher Education, Glenview Il, pp. 144–149 (1990)

[23] Hagendorf, W.: Bulls and bears and bugs: computer investment advisory programs that go awry. Comput. Law J. X, 47–69 (1990)

[24] Jarche, H.: Sharing Tacit Knowledge. http://www.jarche.com/2o1o/o1/sharing-tacitknowledge/ (2010). Accessed April 2012

[25] Kingston, J.: Tacit knowledge: capture, sharing, and unwritten assumptions. J.Knowl.Manage. Pract. 13(3) (Sept 2012)

[26] Restatement (Second) ofTorts: Section 552: InformationNegligently Supplied for theGuidance of Others (1977)


《地方立法研究》2019年第1期目录及摘要


: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存