听新闻
放大镜
智能机器人法律人格问题论析
2018-05-16 14:23:00  来源:检察日报

  智能机器人法律人格问题论析

  孙占利

  【中文关键词】 人工智能;自主意识;人性化;法律人格;人类中心主义

  【摘要】 初期的人工智能仍属于工具范畴,自主智能机器人的“自主意识”和“表意能力”是赋予智能机器人取得法律人格的必要条件,其“人性化”将直接影响甚至决定其法律人格化。“工具论”“控制论”“拟制论”将渐次成为解决其法律人格的可能方案。自主智能机器人将可能先成为著作权等特定权益的主体,其权益变相归属于公共领域。强人工智能时期可能出现具有拟制法律人格或类法律人格的智能机器人,传统法律制度将出现颠覆性的变革。

  【全文】

  人工智能的法律问题是近年来的研究热点之一,学术界就智能机器人的法律人格、无人驾驶的民事责任、人工智能创作物的权属、法律职业替代、社会风险控制等问题进行了积极而有富有价值的研究。法律作为一种明确的、可预测性的规定,企业和个人可以通过法律得知什么是禁为和应为的行为,从而将自己的行为纳入制度允许的轨道。法律制度还规定了权利和义务,具有利导性,能够进一步通过其激励机制引导人们的行为,并通过强制功能规范人们的行为。[1]在人工智能的诸法律问题中,首当其冲的是法律人格问题。笔者将在对国内外的代表性观点进行梳理和借鉴的基础上对其中的法律问题进行探讨。

  一、智能机器人[2]的法律人格问题的缘起

  1950年,图灵发表了《计算机器与智能》,提出机器可以有思维,并提出了著名的图灵测试,该文为图灵赢得了“人工智能之父”的美誉。1956年的达特茅斯会议勾画了人工智能研究的蓝图,会议的发起人麦卡锡起草的倡议书中使用的AI一词也得以确立,达特茅斯会议被认为是人工智能诞生的标志。

  2017年被称为人工智能年。这一年里,在人机围棋大战、德州扑克比赛等竞技中,智能机器人取得了骄人的成绩。索菲亚更是被沙特授予公民身份,成为第一个取得公民身份的机器人。2017年5月,微软智能机器人“小冰”的原创诗集《阳光失了玻璃窗》正式出版,售价近50元。这是人类历史上第一部100%由人工智能创造的诗集。微软还让“小冰”在天涯、豆瓣、简书等平台,用27个笔名发表自己的诗歌,不过读者们并没有发现“骆梦”“风的指尖”等笔名的“诗人”并非人类。从事实上来看,微软、出版社及公众都认为诗集的作者是“小冰”。但在法律上,因为“小冰”不具有法律人格,并不能成为著作权的主体。虽然产生了这些法律问题,但却隐含着微软向世人宣告具有创造性的机器人的诞生,昭示着科技的进步将为人类产生新的福祉和带来新的挑战。

  2016年,微软开发的聊天机器人Tay在Twitter上线。 Tay在部分用户的刺激下开始发表种族歧视、性别歧视的言论,旋即被微软下线。之后微软声明是因为有人利用了一个漏洞对Tay展开攻击。更为不幸的是,机器人杀人和伤害等“犯罪”事件屡见不鲜。1978年日本一家工厂的切割机器人突然“转身”将工人抓住并切割,这是世界上第一宗机器人杀人事件。另一件曾轰动全球的事件是1989年人工智能机器人落败于苏联国际象棋冠军后释放强电流致使冠军身亡。此外,机器人“自焚”后引燃房屋、机器人打人等事件也见诸媒体。此类事件引发了人们的忧虑,也引起了侵权主体、犯罪主体及其法律责任的探讨。

  吴汉东教授认为,对于人工智能引发的现代性的负面影响,有必要采取风险措施,即预防性行为和因应性制度。面向未来时代的调整规范构成,应以人工智能的发展与规制为主题,形成制度性、法治化的社会治理体系,包括以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制。借鉴国外经验,立足本土需要,当前应尽快出台“国家发展战略”,及时制定“机器人伦理章程”,适时进行机器人专门立法。[3]从人工智能创作内容的版权归属、无人驾驶的责任认定、自动生成裁判文书情况下的裁判主体与效力等问题可以看出,此问题已经是一个现实法律问题。

  从法律角度来看,法律人格直接关系到法律关系的主体问题,关系到能否以其身份自主设立、变更及终止法律关系。申言之,关系到主体的权利、义务及法律责任,也关系到权利能力和行为能力问题。法律关系源于法律对社会关系的调整,因此,也会进而影响到社会关系和社会秩序问题。从法治实践的角度看,关系到智慧立法、智慧执法、智慧司法、智慧法律服务的主体与效力等问题。从法理的角度看,传统的法律制度是基于人与人之间的社会关系。如果赋予智能机器人以法律人格,传统法律的调整对象将演变为三种社会关系:人与人之间的社会关系、人与智能机器人的社会关系、智能机器人之间的社会关系。从国际法角度看,智能机器人的法律人格关系到国籍、战时平民保护、机器人武器的作战主体与作战手段等问题。

  总之,法律关注的是主体及主体的法律关系与法律责任,主体问题是首先要解决的问题,否则无法解决法律关系与法律责任问题。因此,智能机器人的法律人格问题也是相关法学研究和法律实践中首当其冲的问题。

  二、智能机器人的法律人格问题的主要观点

  近年来,随着人工智能及其应用的快速发展和对人类社会产生的巨大影响,关于智能机器人的法律人格问题的讨论比较多,代表性观点主要如下:

  (一)电子人或法律人格说

  2016年5月31日,欧盟委员会法律事务委员会提交一项动议,要求欧盟委员会把正在自动化智能机器“工人”的身份界定为“电子人”的身份,并赋予这些机器人依法享有著作权等特殊的权利与义务。众所周知,沙特更是直接赋予智能机器人索菲亚以公民身份。

  (二)有限法律人格说

  袁曾认为,人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格。但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格。为调整适应人工智能有限法律人格的规制安排,必须明确人工智能归责原则,通过强制投保责任险、确立以人为本的监管体系、加速《人工智能发展法》立法等体系性安排,促进人工智能在可控的范围内发展。[4]

  (三)次等法律人格说

  杨清望、张磊认为,为了适应社会发展,解决新矛盾新纠纷,必须从人类的权益出发,运用法律拟制的立法技术赋予人工智能次等法律人格,借鉴法人制度建立人工智能登记备案制,完善人工智能的法律责任制度。这一方面有利于促进人工智能更好服务于人类,另一方面确保其不异化为“超人类”的主体。将人工智能界定为“有限”法律人格并不能阐明人工智能法律人格的根本属性,因为人工智能是人类的创造物,重要的是要把它的法律人格同人类主体的法律人格区别开来并赋予其独立的法律人格,而不只是在既有法律框架内通过对自然人权利能力限缩的方式实现。[5]

  (四)位格加等说

  张绍欣认为,现代法人制度通过“位格加等”把人为设置的团体提升到具有一定人格权的地位,人工智能概念则通过“位格加等”把机器人提升到自然人的法律位格。“图灵测试”摧毁着传统法律人类学的位格等级制度。根据“图灵测试”,在人的身体与机器之间作出位格等级区分是没有必要的;而人的智能又是不可知不可评估的,因而不能用智能作为标准来区分人与机器。在“赛博格”和“赛博人”的时代,法律拟制正在从人类中心主义向“超人类主义”转换——不是把低于人类的事物拟制到人类的位格等级,而是要把人向“超人”的位格来提升和拟制。[6]

  (五)人格类比说

  Gabriel Hallevy认为,人工智能没有灵魂,其法律人格毕竟有限,即使将来拥有自我意志也无法存在繁殖性的肉体或者真实感情,在刑法对待人工智能的法律地位上,与公司的法律地位无异。[7]此外,F. Patrick Hubbard建议可以将自主性机器人视为儿童或动物,这样使用者就有义务去注意机器人的行为,在机器人造成损失的时候根据比例原则等承担过错责任。[8]不过,该观点实质上是采用转化或类推适用的方式来解决法律问题,并非直接主张赋予人工智能以法律人格。

  (六)电子代理人说

  “电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》(1999年7月美国统一州法全国委员会通过并向各州推荐采用)。1999年8月美国统一州法全国委员会通过的《统一电子交易法》(修订稿)第2条也有关于电子代理人的定义,“电子代理人”系指非经人的行为或审核,全部或部分独立地发起某种行为或应对电子记录或履行的计算机程序、电子手段或其他自动化手段。该法原来使用的是“电子设施”一词,受《统一计算机信息交易法》的影响,也改用“电子代理人”。2003年美国《统一商法典(买卖篇)》沿用了此概念。此外,受美国立法的影响,加拿大的《统一电子商务法》(1999年通过)也使用了“电子代理人”。即使在《统一计算机信息交易法》和《统一电子交易法》中,其所称的“人”也并不包括电子代理人。该等法案所称的“人”指个人、公司、商业信托、信托、合伙、有限责任公司、协会、合资企业、政府部门和机构、中介或代理、公共法人、或任何其他法律或商业实体。[9]

  (七)利益平衡说

  司晓、曹建峰认为,为了更合理、有效地对智能机器人造成的损害分配法律责任,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都可作为潜在的法律方案;但立法者或者法院最终选择何种方案,需要进行全方位的论证,以便实现法律的利益平衡目的。[10]

  (八)权利与责任一体说

  Aishwarya Limaye认为,即使是最超前的机器人责任政策立法也没有将自主性机器人作为责任主体,原因是因为机器人的法律地位并不明确,若要确定机器人的责任,首先要确定机器人的宪法基本权利,比如美国宪法第二修正案的携带武器的权利和宪法第一修正案的言论自由权。[11]该观点也可称为法律地位说。

  (九)控制说

  吴汉东认为,“受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。”[12]换言之,如果出现不受民事主体控制的机器人,是有可能取得独立的主体地位的。

  (十)机器或工具说

  郑戈认为,机器人无论以何种方式承担责任,即使提出了“电子人”的概念,最终的责任承担者都是人。这使得它的“法律人格”显得多余和毫无必要。[13]郝铁川认为,人工智能无法成为法律关系的主体。人类可以制造人工智能,也可以毁灭人工智能。人工智能是孙悟空,而人类却是如来佛和唐僧。人工智能属于劳动工具。劳动工具为人所造、为人所用,它怎么可能取代人呢?第一,人工智能是人控制之下的、人能力的延伸物,它本身没有内源性的行为能力,也没有内源性的权利能力。第二,人工智能缺乏法治所需要的辩证逻辑思维能力。第三,人工智能没有运用法律原则和模糊性法律规范的能力,在解决疑难复杂和新型案件方面一筹莫展。第四,人工智能没有判断证据真伪的能力。第五,人工智能不具备讨价还价、灵活多变的调解能力。总之,人工智能只能在某些方面帮助人类从事法治活动,而根本改变不了人在法治中的主导作用,因为它不是人,是人造的机器。[14]

  当前关于法律人格问题的讨论,总体上是以自主智能机器人为研究前提的,大体上可以分为三类观点,即肯定说、否定说及在一定条件下赋予智能机器人法律人格,具体的观点和论证也不尽相同,甚至对该问题是否属于真问题也有争议,可谓“百花齐放,百家争鸣”。赋予智能机器人法律人格的立法条件并不成熟,然而,对此问题的科学探讨有助于对现实存在的法律问题提出解决建议。一些观点根据人工智能的发展现状和技术原理洞察其发展趋势,前瞻性地提出了不同的法律解决方案,其学术价值也是值得肯定的。值得注意的是,在是否赋予法律人格和赋予何种法律人格的探讨中,上述研究成果使用了“独立自主的行为能力”“法律地位明确”“民事主体控制”“劳动工具“”权利能力和行为能力”“灵魂、肉体、感情“利益平衡”等作为”标准,可见,在这个问题上观点也是不尽一致的。

  三、智能机器人的法律人格问题的思考

  (一)机器学习使得探讨智能机器人的法律人格问题并不为时过早

  以前盛行的人工智能探索试图把人类思维变成符号操作法,例如变成计算机可以理解的语言或数学。而机器学习恰好相反,它是建立和改善算法的过程,算法规则可以根据数据得出结论。算法与程序截然不同,是要求一台计算机遵守的一系列规则或指令,而程序是给计算机下达明确精准、按部就班的指令。[15]20世纪的相关讨论尚局限于或主要基于自动化程序,机器学习使人工智能发展到不再是按照下达的指令来运行,其运算的过程是“黑箱”,运算的结果(例如决策或判断)也是开发者无法预计的。

  2017年,Facebook人工智能研究所对两个聊天机器人进行对话策略迭代升级,结果它们竟试图创造出人类无法理解的语言进行交流。2015年,波士顿塔夫茨大学人机交互实验室向来访者展示了敢于违逆人类命令的机器人。一旦会拒绝人类指令的机器人出现,就意味着机器人有了自己的推理能力。2013年,能够感知人类情感变化或外部环境的一千台机器人“胡椒”在一分钟内被一抢而光,“胡椒”的功能源于“类似内分泌系统的多层神经网络”。出于保护开发者的绝对主导地位,很多科学家对那些反抗人类命令的智能技术研究往往是浅尝辄止。[16]然而,基于行为失范现象的理性观察和深刻了解,法律人是不会对此完全信赖的。

  此外,我们不应将立法条件和研究条件混为一谈。即使立法条件不成熟,只要存在现实问题或预见到问题的现实发生可能性,就应当积极投入研究。诚如卡鲁姆●蔡斯所言“;我们不必对这种结果完全肯定时才觉得有必要监控发展情况、制定应变计划。毕竟,要看到奇点边界事件并非易事。……如果我们不能取得积极成效,那就有可能活该成为数字超人工智能的引导加载程序,而不是它的线粒体。”[17]我国政府高度重视相关问题的研究,国务院《“十三五”国家科技创新规划》提出:以脑认知原理为主体,以类脑计算与脑机智能、脑重大疾病诊治为两翼,搭建关键技术平台,抢占脑科学前沿研究制高点。

  (二)探讨智能机器人的法律人格问题的理念

  如同对其他法律问题的研究,科学性、合理性、必要性及可行性是对此问题进行探讨的基本理念。笔者要强调的是,关于是否赋予智能机器人法律人格问题的争议,可以认为,主张赋予智能机器人法律人格并非基于机器人的“人权”和其他权利保护的需要,盖因“人类中心主义”的理念使然。其原因在于面临的诸多法律问题和即将产生的更多法律问题需要法律作出必要的回应,而赋予机器人法律人格将使目前面临的著作权归属、无人驾驶的法律责任的部分问题迎刃而解(虽然这种看法是片面的)。

  人工智能将逐步对法律制度产生日益剧烈的冲击,智能机器人的法律人格等新的法律问题将会引发激烈的争论,争论的本源是“人类中心主义”和“去人类中心主义”的伦理之争,对“人类沙文主义”的质疑将可能从环境法领域延续到人工智能法律领域。以开放、包容及创新的理念观察人工智能时代带来的伦理、社会、法律等领域的问题应该会得到较多的认同。那么,在强人工智能阶段,甚至在弱人工智能的中后期,“去人类中心主义”将可能成为新的伦理理念。斯坦福大学教授克利福德●纳斯的观点值得我们重视:“生命是特别的,我们不应该像破坏法律那样去虐待那些机器、动物等非人类生命,非人类生命也应该有相应的‘人权’。”[18]

  (三)赋予智能机器人法律人格的条件

  1.当前的法律确立的法律人格条件

  关于环境法的调整对象问题,也产生了类似的争议。一种观点认为,环境法律关系的主体仅限于“人”,即环境法律关系是直接建立在人与人之间或者以自然为媒介间接建立在人与人之间的环境社会关系;另一种观点认为,环境法既调整人与人之间的关系也调整人与自然的关系。环境法学界迄今未能达成一致意见。不同的理念是导致这一问题的根本原因,“人类中心主义”和“人类沙文主义”成为符号化的标签。此类标签也会再现于人与智能机器人的关系的论争中。

  按照当前的法律,自然人、法人及其他组织是法律主体,法人和其他组织是法律赋予的拟制人格。自主意识和独立的意思表示是赋予法律主体的必要条件,财产则是主体承担法律责任的物质基础,并为赋予法律主体资格提供了可行性。然而,动物是生命的主体,有自主意识和可以进行“意思表示”,甚至也拥有财产,但并非法律主体,盖因法律调整的是社会关系(即人与人之间通过意思表示所形成的社会关系)使然。

  2.智能机器人的“自主意识”

  弱人工智能是不具有自主意识的人工智能类型,推理和解决问题的能力局限于特定的任务,不能自主提出问题。强人工智能把人工智能和意识、感性、知识和自觉等人类的特征相结合,具有提出问题和独立推理与解决问题的能力。超人工智能只是理论上的设想,目前尚处于弱人工智能阶段,甚至是弱人工智能的初步阶段。

  从目前的研究来看,区别人与智能机器人的法律意义在于判断智能机器人在多大程度上与人类具有相似性,这是赋予智能机器人的前提条件。从当前的法律来看,自主意识是智能机器人取得法律人格的主观条件,能够进行独立的意思表示并进而形成社会关系是客观条件。必须认识到,是否属于社会关系是由人来作概念上的设定,意思表示能力对现在的智能机器人而言已无技术障碍。至于是否属于独立的意思表示,一方面受制于是否属于社会主体(这个问题仍然取决于是否认可智能机器人的社会主体地位,否则会陷入逻辑悖论。),另一方面也取决于智能机器人有无“自主意识”。总之,按照当前的法律理念,“自主意识”和“表意能力”是赋予智能机器人法律人格的必要条件,“自主意识”则是其判断标准。

  自主意识与人类控制是紧密相关的概念,也是可接受性较强的观察视角。人类对智能机器人的控制将可能出现三种情形:完全控制、部分控制及超出控制。即使在弱人工智能阶段,由于深度学习和自主学习,如前文所述,智能机器人也已经在一定程度上出现超出人类控制的实例。智能机器人的“自主意识”的自主程度决定了是否赋予法律人格及赋予条件。

  然而,用“自主意识”作为判断赋予智能机器人法律人格的标准是否科学、合理呢?因为当前的法律是人对自身行为的规范,是在智能机器人产生之前的法律。而且,目前对自主意识的内涵和外延界定是基于当前的人类理念和对人类的意识的观察所形成的结果。换言之,无论智能机器人是否具有意识,反对的观点通常是因为认为计算机和程序无法达到意向性,它必须由人脑或者具有人脑类似的生理结构和组织才能达到。人工智能史上有句名言:只需要再多一条规则,人工智能就能马上实现。那么,能否认为:只需要再少一条规则,人工智能就能马上实现自主意识呢?

  笔者无意否定现在的法律理念将“自主意识”作为判断标准的合理性,或许真正的问题在于能不能用人类的意识标准来判断智能机器人是否具有自主意识。类似的问题也会出现在思维方面,也就是智能机器人(例如阿尔法元)的推理和决策是否属于思维的问题。当然,笔者也不完全赞同将智能机器人的学习、推理、决策等能力作为拥有自主意识的依据,但同时应该看到,正如人类的意识与能力直接相关一样,计算能力至少提供了一种观察智能机器人的“自主意识”的视角。

  当前的人工智能已经具备了通过数据、算法及计算分析问题和解决问题的能力,但尚不能自主提出问题。如果能够自主提出问题,是否就可以认为具有自主意识呢?答案或许并不能取得一致认同。以图灵测试为例,图灵测试是对机器人沿用人类辨识同类的方法进行测试,那么,通过测试的机器人是否就意味着具备意识和思维呢?目前来看,答案是基本否定的。2014年,俄罗斯科学家弗拉基米尔●维西罗夫开发的人工智能软件尤金●古斯特曼通过了图灵测试,但各种质疑纷至沓来。是时候该回顾一下丹尼尔●丹尼特的名言了:如果行为表现不能用来检验意识,怎么保证现实中的其他人不是自然演化出来的僵尸呢?虽然人工智能的一个分支是致力于通过人工神经网络来推动人工智能的发展,但人工智能的发展路径具有多种可能性。完全用人类的自主意识作为判断标准的科学性和合理性是值得商榷的。

  莫拉维克悖论揭示了一个和常识相反的现象:人类独有的高阶智慧能力只需要非常少的计算能力,例如推理。但是,无意识的技能和直觉却需要极大的运算能力,例如系鞋带。然而,医疗机器人达芬奇已经可以缝合葡萄皮了。从这个角度看,如果以自主意识作为是否赋予智能机器人法律人格的标准,其结果可能是不利于否定派的观点的。

  目前的智能机器人的超人类的能力尚局限于有规则的围棋、国际象棋等游戏领域。然而,这已经足以让人们放弃人与机器人的区别在于经验学习的判断标准。通过机器学习和深度学习,借助于模拟人类的神经网络,机器人也可以拥有类似人类的直觉或感觉,拥有独特的创意和灵感(例如作诗和写小说)。2017年,OpenAI宣布了他们的一项研究成果,证明通过训练,智能体是可以创造语言并进行交流的。同时,他们也将论文《Emergence of Grounded Compositional Language in Multi-Agent Popula- tions》同步到arxiv上。[19]

  智能机器人主要依靠数据、算法和计算能力来进行学习、判断和决策,虽然其思维过程并不完全相同,但智能机器人在围棋等领域彰显的超人类能力不应被忽视。随着环境感知能力的增强,机器人的环境反应能力和环境适应能力也会相应增强。这一切都在逐步消灭人与机器人的差别,正因如此,才被称为“机器人”或“智能机器人”,才有人类的科技进步和社会发展。个人情感和好恶判断并不能阻止这一切的发生。

  即使如此,人与机器人仍然是有区别的,人对精神利益和物质利益的追求也使得人与机器人有本质的区别。而且,虽然机器人在不断模拟人的神经网络,可以自主学习,甚至通过自主完善的算法来在某些领域显示出超越人类的思维能力,从而具备独特的思维能力,但人类思维(包括情感思维)的复杂性是机器人无法企及的。同时,也应当看到,智能机器人的程序和算法虽然是由人来设计的(至少在目前是这样的),但其运算和作出判断、决策的过程是一个“黑箱”,能否因此认为智能机器人拥有类似人的思维呢?或许这个问题的关键是将思维的主体限定为人类的固有理念,因此被认为不是思维,而是设计者的思维、智慧及意志的延伸。然而,人类大脑的细胞运行迄今对人类的科技认识而言在一定程度上也是“黑箱”,但在此之前就认为人类是有自主意识的。对于自主智能机器人而言,这种观点将难以自圆其说,或许现实法律问题和科技进步将推动形成“自主意识”的新内涵。

  (四)智能机器人法律人格问题的法律选择

  在早期的人工智能阶段,将智能机器人或自动信息系统的行动归属于个人或法律实体,并非基于代理关系的考虑,而是基于自动信息系统只能在预先设定的程序的技术结构内工作这种典型特征。

  对于智能机器人的法律人格问题,仍需要遵循“最小化原则”和“程序化原则”,尽力将已经存在的法律适用到人工智能时代,尽量在最小程度上对人工智能制订新的法律,尽可能通过程序性的技术改造来适用已有的法律,以清除法律障碍或者明确关系。基于此“工,具论”仍然是当前解释和适用法律的方式。例如,智慧法院的“智能法院”建设中将可能采用符合法定条件的智能化自动立案、自动保全及自动划扣等执行措施,智慧法官虽然可以代替法官的职业活动,但这些诉讼“行动”仍然是代表法院作出的,相关司法文书的制作和发出主体仍然是法院。智慧律师等职业替代所产生的问题也可以同样解决。

  在自主智能机器人不再完全是人类控制的工具的情形下,例如微软“小冰”创作诗歌作品时,可考虑在著作权等权益方面赋予智能机器人特定的权益主体地位,其实质是将该等权益变相归属于公共领域,此可称为“控制论”或“权益主体论”。如果强人工智能的奇点出现了,法律将被迫援用“拟制论”来赋予智能机器人拟制法律人格或者类法律人格。“工具论”“控制论”及“拟制论”将渐次成为解决智能机器人法律人格和法律责任问题的可能方案。图灵测试、中文房间等测试及以后产生的新的测试实验将引入法律领域来确定智能机器人是否拥有自主意识,以便确定是否赋予法律人格和赋予何种法律人格。欧盟和爱沙尼亚、韩国等正在讨论赋予智能机器人的拟制法律人格的动议,无论结果如何,“拟制论”已经提上了人类的议事日程。

  如果把问题的讨论不再局限于将“自主意识”作为赋予智能机器人法律人格的条件,或可考虑将机器人的“人性化”作为是否赋予法律人格的考量标准。换言之,智能机器人的“人性化”将直接影响甚至决定其法律人格化。人性化标准的优势在于:可以充分体现人类的人性理念,展现对智能机器人的人文关怀,反映关于智能机器人法律人格的诸学说或理论的要求。从另一个角度看,也可以解除或一定程度上解除赋予智能机器人法律人格后智能机器人对人类的不利影响的疑虑。

  预计对法律人格制度带来根本冲击的将是Cyborg(Cybernetic Organism,音译为“赛博格”)。Cyborg是能够“自我调节的人机系统”,既拥有机械装置的优点,也具备人类的感觉、感情以及思维。未来的生化电子人尚停留在科幻层面,但或许也并不遥远。机器人的人类化和人类的机器人化可能并非最恰当的表述,但可以比较形象地说明人类和机器人趋同而行的未来发展趋势。强人工智能阶段,人机界限的模糊和人机共存状态成为新的社会特征,可能出现具有法律人格或类法律人格的智能机器人,以人际社会关系作为调整对象的法律制度将出现颠覆性的变革。那时,可能不是赋予智能机器人以法律人格,而是智能机器人取得法律人格,如果“法律人格”一词还存在的话。

  (五)赋予智能机器人法律人格的影响

  法律是人类的创造物,是调整人与人之间的社会关系的法律规范的总称。如果要赋予智能机器人法律人格,必须在此前充分认识到这一做法的影响并对此进行充分评估。

  虽然沙特赋予以公民资格并不能成为理论上主张智能机器人应具有法律人格的充分依据,但无论沙特此举的动机如何,都属于其主权范围内的活动,并不违反国际法。然而,一旦赋予智能机器人公民身份,将会引起一系列的法律问题。法律人格问题不仅关系到权利、义务和责任的主体问题,而且,法律将调整新型社会关系,即人与智能机器人之间的社会关系及智能机器人之间的社会关系。法律如果调整人与非人之间的关系,国内法和国际法都将会出现颠覆性的变革。

  在电子商务法乃至信息网络法的立法和研究中,一直秉承“最小化原则”和“程序化原则”,以期尽可能不改变传统的法律制度。如果赋予机器人以法律人格,就必须清醒认识到,这将是对传统的法律制度的重大改造甚至是再造。

  法律不仅是一种规范事实,而且还是一种价值体系。价值从来不是一元自足的闭塞体系,而是多元竞争的开放体系;不是自洽的和谐体系,而是多元竞争的开放体系;不是一成不变的静态体系,而是因时因地而变的动态体系。[20]法律的变革是法律自身的发展规律,也是法律价值的本质要求与具体体现。法律是随着社会生活的发展而发展的,即使再造法律,也未尝不可。然而,由于智能机器人的法律人格问题的特殊性,应当充分认识到一旦赋予其法律人格而可能产生的法治影响及由此而引发的社会影响。

  结语

  吴汉东教授认为:“凡是可以描述的、重要的、有固定规则和标准答案的工作岗位,都有被智能机器人取代的可能。”[21]当前在立法上赋予智能机器人法律人格的立法条件确实并不成熟,但是,未雨绸缪,对相关的问题的理论探讨是必要的。我们需要警惕人工智能产生的各种社会风险,但更重要的是人类要完成自身的革命,个体也需要认识到职业替代的风险和完成自我重塑。技术演进过程中的人类与机器人之间并非魔与道的关系,也非奴役与被奴役的关系,人类的理性与智慧终将解决这一难题并在此过程中完成人类自身的革命。

  【注释】 *广东财经大学法治与经济发展研究所、法学院教授,法学博士。

  本文系广东省委宣传部“扶持哲学社会科学优势重点学科建设”(项目批准号:GDXK201735)、广东省哲学社科“优势重点学科建设专项”(项目批准号:XJZX201722)《互联网经济的新型法律问题研究》的阶段性研究成果。

  [1]参见刘岳川:《法律制度对创新创业机制的作用》,《上海师范大学学报》(哲学社会科学版)2017年第2期。

  [2]智能机器人只是人工智能的其中一种应用,且智能机器人并不一定具有人类的外形。为形象说明要探讨的问题,笔者沿用了“智能机器人”一词。

  [3]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

  [4]参见袁曾:《人工智能的有限法律人格审视》,《东方法学》2017年第5期。

  [5]参见杨清望、张磊:《论人工智能的次等法律人格》,载《中国法理学会2017年年会论文集》。

  [6]参见张绍欣:《从法律人类学视角论智能机器人与人类的关系》,载《中国法理学会2017年年会论文集》。

  [7]See Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities From Science Fiction to Legal Social Control. Akron Intell. Prop. J.2010(4).转引自前引[4],袁曾文。

  [8]See F. Patrick Hubbard, “Sophisticated Robots”:Balancing Liability, Regulation, And Innovation(2014).

  [9]美国《统一计算机信息交易法》第102条“定义”及《统一电子交易法》第2条“定义”。

  [10]参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期。

  [11]See Aishwarya Limaye, FRIEND OR FOE, Boston College Intellectual Property & Technology Forum, 2017(1).

  [12]参见前引[3],吴汉东文。

  [13]参见郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。

  [14]参见郝铁川:不可幻想和高估人工智能对法治的影响,载东方头条网http://a.mini.eastday.com/a/180103132649320-2.html, 2018年1月6日。

  [15]参见[英]卡鲁姆●蔡斯:《经济奇点:人工智能时代,我们将如何谋生?》,任小红译,机械工业出版社2017年版,第53页。

  [16]参见韦康博:《智能机器人:从“深蓝”到AlphaGo》,人民邮电出版社2017年版,第38—42页。

  [17]前引[15],蔡斯文,第158页。

  [18]参见佚名:《机器人应该有人权吗?》,《商学院》2009年第3期。

  [19]参见雷锋网:Open AI尝试打破“中文房间悖论”,让AI创造语言并自发交流,载北京时间网https://item.btime.com/077tb502 usv89ctdofg1u3rvq7h, 2018年1月10日。

  [20]参见谢晖:《论法律价值与制度修辞》,《河南大学学报》(社会科学版)2017年第1期。

  [21]吴汉东:人工智能时代必须关注的社会风险与四大问题,载腾讯研究院网http://www.tisi.org/4967,2017年12月28日。

  【期刊名称】《东方法学》【期刊年份】 2018年 【期号】 3

  编辑:李晓巍