听新闻
放大镜
“电子人”法律主体论
2018-05-17 15:10:00  来源:检察日报

  【中文关键词】 人工智能;电子人;自主性;法律主体

  【摘要】 人工智能具有自主性、主动性,已非纯受支配之客体,在法律上应设定为“电子人”。其依据在于:实践中人工智能主体已有成例或官方建议;历史上,自然人、动物或无生命体法律主体的演化表明,存在充足的法律主体制度空间容纳“电子人”;法理上,现有法律主体根植之本体、能力与道德要素,“电子人”皆备。由外部视之,人工智能现有及潜在的经济、社会、文化、伦理影响以及对哲学范式的冲击,促使既有观念、模式、体系开始转换,“电子人”的法外基础已然或正在生成并强化。

  【全文】

  近些年人工智能(Artificial Intelligence, AI)飞速发展,在特定领域开始超越人类智能,尤其2016年阿尔法狗连续击败两位世界围棋大师,引发热烈讨论,人工智能话题弥漫整个社会。人工智能改变着人类文明进程,面对人工智能的超越及影响,学者分别从道德伦理、社会管理、风险防控、法律规制等不同角度展开研究。在法律领域,人工智能对现行法律制度提出诸多挑战,如人工智能生成物的著作权保护、人工智能致害法律责任、人工智能缔结合同的法律效力等。究其根本,在于人工智能法律地位是法律主体抑或客体。答案不同,则制度设计、立法样态、法律效果迥异。面对人工智能的“奇点”,我国亦大力推进。2017年7月20日,国务院发布《关于新一代人工智能发展规划》,要求“明确人工智能法律主体以及相关权利、义务和责任等”。为此,笔者主张以“电子人”作为人工智能法律主体的规范称谓,并立足人工智能的现状及未来图景,以法律内外视角论证“电子人”法律主体性。

  一、人工智能时代的“电子人”主体

  (一)人工智能时代的人机关系

  探讨人工智能法律地位,实乃厘定人类与人工智能之间的关系。人工智能旨在实现与人类智能相似的智能表现,一方面有赖于算法程序、技术方法,模拟人类;另一方面,须附着于机器装置、系统等载体之上,表现智能。若把人类视为智能载体,人工智能与之相较,外形、材质差异是非实质的,关键在于智能水平。但对于智能是什么,争论不休。马文●明斯基认为,不可能发展出单一的智能概念。因为智能不是单一的概念建构。确切地说,智能是无数低层次操作的手册。进言之,智能是一个随时变化的概念。[1]虽如此,依明斯基所言,人工智能是一门令机器做那些由人类需要做智慧的事情的科学。[2]可见,人工智能以人类智能为标尺,由人类构造的机器、系统或其组合表现人类智能部分或全部特点与功能。

  人工智能仰赖科学认知人类智能。当前脑科学、认知科学已大幅进步,但对人脑产生情感意识的功能机理、脑神经网络结构仍缺乏深入了解,尚未全面掌握人脑智能机制,以至于人们对人类智能理解不一,导致人工智能模仿人类智能的进路分化,产生了不同的人工智能实现模式,如符号主义、联结主义、行为主义、机制主义。人工智能试图区分智能层级或类型模拟人脑,达到人类智能水平。按神经认知、心理认知、语言认知、思维认知、文化认知的层级,[3]人工智能在文化认知之外的其他方面皆有进展,当前在存储、计算、围棋等单一领域人工智能远超人类,但整体尚未达到人类智能水平。

  根据与人类智能的位置关系和未来前景,人们预设了人工智能的水平状态。约翰●塞尔区分了弱人工智能和强人工智能,前者指称仅能作为研究辅助工具的人工智能,后者指经适当编程的电脑与人类心灵等同。[4]亦有把弱人工智能之相对者称为通用人工智能(Artificial General Intelligence, AG- I),旨在区别转向受限领域和具体问题解决方案的人工智能,相似的标签如强人工智能、人类级人工智能。[5]为实现强人工智能,类脑人工智能或神经拟态计算产生,被认为是由弱人工智能到强人工智能的主要进路。[6]而这离不开大脑研究的深化。自2013年起,欧盟、美国推出人类大脑计划(Human Brain Project, HBP),试图绘制人脑回路图谱,发现大脑信息处理原理。[7]此举对人工智能潜在影响巨大。在强人工智能之上,通过全脑仿真、生物认知、人脑-计算机交互界面、网络及组织等,能够实现“超级智能”,此类超级智能将全面超越人类智能,产生人脑替代效应。[8]

  从弱人工智能、强人工智能到超级智能,人机关系存在位差,可概括为两种情形:智能机器外在于人体,作为独立的存在体;智能机器嵌入人体,人类与智能机器融合。在第一种情形下,人类与智能机器皆为独立存在,人机关系主要取决于机器智能水平。在弱人工智能时代,人工智能劣于人类智能,不具备人类的逻辑推理能力、联想能力、创造力等,但不完全受人类支配,在既定程序与框架下具有一定的自主判断能力、决策能力和行动力。在强人工智能条件下,人工智能乃人类级,此时如何待之,涉及社会经济、道德伦理、人类安全、主体观念等,颇为复杂。从人类角度而言,存在两个向度:一是,人类之外另一种主体形式,系法律主体之一;二是,虽为独立智能体,但受人类终极管控,不具有完全独立之主体地位,甚至被视为客体。最后,若有超级智能,则属人工智能的顶端,此时机器完全超越人类,不但是独立主体,而且占据主导地位,甚至统治人类。鉴于当前人工智能距人类级尚有差距,遑论超级智能,故笔者不把超级智能纳入论述场域。就第二种情形,机器连接或植入人体,人体融合各种仿生智能机器,已非单纯肉体之身。从人体与机器交互方式看,有些外部机器如穿戴设备、外骨骼设备,无需植入人体,与人体连接或佩戴,人类身体机能修复增强。当下此类设备系辅助人类工具,属客体范畴。随着人机协同技术发展,人脑-机器对接普及,人体嵌入机器成为机器化人或半机器人,兼具生物智能与机器智能或机能。此时,人工智能与人脑发挥协同作用,人类智能经人工智能增强或整合,展现超强能力。在此形态下,植入人体之机器系人体一部分;人体之外的机器,视其智能水平、受人类控制程度等,作为客体、非完全独立主体或独立主体。

  (二)“电子人”的概念厘定

  弱人工智能不同于作为客体的传统机械装置,表现出相当大的自主性、主动性;强人工智能系人类级智能,犹如人类,绝非人类支配的客体。在人工智能时代,应确立新的法律主体类型“电子人”,以表征人工智能机器或系统。

  在概念上,“人工智能机器”不具规范确定性。机器通常指由金属或/和非金属构成的装置,这就排除了数字形态的人工智能系统,无法包容人工智能的多元载体形式。“人工智能”亦不适宜,因为它充满歧义性,既可指智能类型,亦可指技术,或技术附着之载体。鉴于人工智能主体是法律上的人,且为与自然人、法人等主体名称保持同构,应以“人”为中心语,修饰词有人工、智能、机器、硅基、电子等。人工相对于自然,人工人与自然人对应似乎恰当,但若区分自然生殖与人工生殖,人工人包含人工生殖的自然人。况且,法人是人造人,具有强烈的人工属性,故人工人不确凿,范围宽泛。智能不宜作为修饰语,因为智能指向人类,不适于单独界定人工智能。机器人也不宜,因为并非所有的机器人皆具智能性,既无法专指智能机器,又不能指称人工智能。硅基是在碳基之外的另一种生命基础。构造人工智能的芯片、半导体以硅为基础材料,人工智能可纳入硅基范畴。而由硅制成的电子元器件才是人工智能的基本物质单元。硅基人是就材质而言,电子人源自基本单元和技术名称,皆具可行性,但考虑到通用性、认可度,“电子人”更合适。

  “电子人”指向人工智能,内涵界定需明确三个主词:人工智能、电子、人。人工智能的语义前文已提及;“人”乃主体之义;关键是“电子”。根据《韦氏词典》,[9]“〕electronic”是:电子的或与电子有关的;与依据电子学方法或原则构造或工作的设备有关的,或适用这些设备;依靠或经由计算机实施;与音乐有关的电子方法;信息电子传递介质如电视,或与之相关的。联合国国际贸易法委员会制订的《电子商务示范法》第2条(a)规定,“数据电文”系指经由电子手段、光学手段或类似手段生成、储存或传递的信息,这些手段包括但不限于电子数据交换(EDI)、电子邮件、电报、电传或传真。美国统一州法全国委员会1999年制订的《统一电子交易法》(UETA)第2条第5款(s.2.5)规定,“电子”指与拥有电、数字、磁、无线、光、电磁或相似特性的技术有关的方法。可见,“电子”是基于与电、光、磁、数据有关的计算机技术、通信技术、网络信息技术等所生之事物、方法。故此,“电子人”是拥有人类智能特征,具有自主性,以电子及电子化技术构建的机器设备或系统。

  电子人不同于机器人。机器人定义众多,美国机器人协会(RIA)把机器人界定为:一种用于搬运各种物品,经可编程序动作执行任务,具有编程能力的多功能操作机。国际标准组织(ISO)采纳了该定义。我国国家标准《机器人与机器人装备词汇》(GB/T 12643-2013)2.6规定,机器人是具有两个或两个以上可编程的轴,以及一定程度的自主能力,可在其环境内运动以执行预期任务的执行机构,根据2.7规定,即机械结构。无论如何,机器人属机械装置,按智能性可分为智能机器人与非智能机器人。智能机器人是拥有智能特性的机械设备,是人工智能与机械装置的结合体,在人工智能中占比非常高,以至于有时并不严格区分人工智能主体与机器人,[10]但人工智能的形式化载体不限于机械,智能机器人仅系电子人的具体类型之一。

  电子人异于电子代理人。 UETA s2.6规定,电子代理人指全部或部分地独立用于实施行为或回应电子记录或履行,而无需个人检视或行为介入的计算机程序或一种电子或自动方法。电子代理人用于自动交易,其主要特点是“在缔结合同、履行合同或承担交易义务的一般过程中,一方或双方的行为或电子记录不会被个人检视”(s2.2)。《统一计算机信息交易法》(UCITA)述评23解释道:“电子代理人指缔结或履行合同的自动方法。代理人必须以与创立或履行合同有关的方式独立实施行为。仅使用电话或电邮系统不属于使用电子代理人。”电子代理人不是法律上与本人相对之代理人,而是一种交易方法或装置。比如ATM机、股票自动交易系统,自动化是其最大特点,它只能按人类设置的既定程序、步骤运行,无自主性。此乃电子人与电子代理人的本质差异。

  二、“电子人”主体的法律论证

  人工智能法律地位有客体说与主体说,前者如工具说,后者如代理说[11]、有限法律人格说[12]。笔者赞同主体说,认为应把人工智能确定为“电子人”,可从现实、历史与理论三个层面论证。现实提供实践支撑,历史蕴含经验依据,理论证成必要性、合理性。

  (一)“电子人”主体的实践基础

  目前各国未系统规定人工智能主体,但一些国家、政府组织承认或建议承认人工智能是“人”,此类实践可为确证“电子人”法律主体提供实践支撑。

  1.日本之“户籍”授予

  帕罗是日本颇受欢迎的宠物机器人,全身毛茸茸,外形似海豹宝宝,能够感知外界环境并进行反馈如眨眼、摇尾、发声,常被用于老人陪护。2010年11月7日,帕罗获得户籍,户口簿上的父亲是发明人。这意味着日本政府一定程度上认可了智能机器人的主体地位。机器人已超越“财产”定位,获得作为有感知力的存在体享有权利的法律地位。这种观念,在日本之外、包括美国在内的地域,在人工智能和机器人领域正在形成发展。[13]

  2.美国之“驾驶员”决定

  2016年2月4日,美国国家公路交通安全管理局(NHTSA)在给谷歌公司的回函中表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”。[14]而此前,谷歌公司提出申请,要求美国国家公路交通安全管理局解释美国联邦机动车安全标准是否适用于自动驾驶汽车。

  3.欧洲议会之“电子人”决议

  2016年5月31日,欧洲议会法律事务委员会发布《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》,2017年1月12日草案由该委员会表决通过成为决议(resolution);[15]2017年2月16日,欧洲议会通过该决议。决议第59段建议,当对未来法律文件的影响进行评估时,应探索、分析并考虑所有可能的法律举措的意蕴,其中举措之一就是:从长期着眼为机器人创立特定的法律地位,以至于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。

  4.沙特之“公民”宣告

  2017年10月25日,在“未来投资计划”大会上,沙特政府授予“女性”机器人索菲亚公民身份,开历史先河。索菲亚属于对话式人工智能机器人,采用语音识别技术,能够理解人类语言,与人类互动,识别人脸,模拟62种面部表情,但不能自由移动。

  总之,虽然在全球范围内确认人工智能主体的做法仍属少数,甚至一些仅为建议,但全球三大经济体对人工智能的基本态度、对授予人工智能主体地位的倾向性,以及沙特政府率先授予人工智能机器人国籍之举措,对人工智能法律定位具有重要借鉴意义,确立“电子人”具有现实性。

  (二)“电子人”主体的法史基础

  法律主体是一个历时性概念,其意涵范畴在不同人类文明阶段有所差异。生命体如人类、动物,无生命体如建筑、船舶、法人,在法律主体制度史上皆存在,确立“电子人”具有主体制度空间。

  1.自然人法律主体的历史演化

  在人类社会早期,自然人(生物人)与法律主体之间隔阂颇深。《汉谟拉比法典》将巴比伦人分为上等自由民、无公民权的自由民及奴隶。上等自由民享有完全的法律权利,无公民权的自由民有部分法律权利,而奴隶非法律主体。罗马法按照人的身份确定权利,生物人不一定具有法律人格,如奴隶在法律上通常是权利的客体“物”。古罗马实行人格减等制度,原来具有法律人格者,因人格减等不再是法律主体,或仅享有部分法律权利。[16]随着人类文明发展,作为法律主体的自然人范围不断扩大。15、16世纪,自然人作为理性人,法律普遍肯认其法律主体,但区分社会身份,进行差异化法律规制。“人的私法地位是依其性别、其所属的身份、职业团体、宗教的共同体等不同而有差异的;作为其一个侧面,一个人若是不属于一定身份便无法取得财产特别是像土地那样的财产权利的情形是普遍存在的。”[17]近代以降,自然人与法律主体统合,自然人基本实现法律形式平等。但人格平等未完全落实,以女性为例,“迟至19世纪末,在许多西方国家,男性的法律权利基本上都已被很好地确立,但已婚妇女仍不能作为拥有法律权利的独立个体而存在,而只能屈从于其丈夫的意志”。[18]20世纪自然人法律人格的普遍化时代来临,不论其理性能力,不论身份等外部因素,皆为法律主体,自然人的伦理意义、目的价值彰显于法律。

  2.动物法律主体的历史经验

  近几十年来,动物保护主义日益高涨,动物权利论支持者多,反对者众。[19]法学界针对智能动物如海豚、灵长类动物能否作为法律主体,争议颇大。绝大多数国家承认动物独特性,非物,视为物,系特殊客体,人类负有保护或人道对待的义务。但动物作为权利主体的地位没有确立,以至于作为原告的诉讼主体资格普遍未获认可。比如在美国,除了被告没有提出动物原告资格异议的案件,其余动物诉讼案件均否定了动物作为原告的诉讼主体地位,对此,有法官在判决附带意见中表达了异见。色拉俱乐部案的道格拉斯法官认为,应承认包括动物、河流、森林等自然物的诉讼主体资格,赋予其生存表达的权利。[20]作为全球动物保护先进国,瑞士于1992年修宪正式承认动物是“存在体”或“类”。[21]此前于1991年,瑞士苏黎世州已立法规定受虐动物有权拥有律师。而动物作为义务主体、责任主体早已进入法律诉讼。从9世纪到19世纪,西欧有两百多件记录下来的对动物的审判案件,被放上被告席的动物多达数十种,如苍蝇、蝗虫、老鼠、猪、象鼻虫、蜗牛、狼、黄鳝等。野生动物由宗教法庭管辖,家养动物则属于世俗法庭。[22]在审判中,法庭为动物指定辩护律师,保障其诉讼权利;在结果方面,有判令动物承担刑事责任的,也考虑动物自然权利的。持续近千年的动物审判与宗教神学、政治权力密切相关,虽被认为荒诞不经,但其法律价值和历史意义不容忽视,它蕴含着西方传统法律主体观念,历史上的特殊法律主体由无生命的寺庙、宗教建筑延伸到动物,承认动物的义务主体性。

  3.无生命体法律主体的历史梳理

  不同历史时期皆有无生命体作为法律主体。古罗马时期的寺庙、中世纪的宗教建筑被视为权利主体。古希腊法和普通法曾经甚至把物体如船只作为义务主体。历史上曾发生过对物品的审判。[23]2017年3月新西兰旺格努伊河被新西兰国会赋予法律人格,成为世界上第一条具有法人地位的河流。鲜为人知的是,2014年新西兰国家公园Te Urewera已经获准为法人。这些无生命体当然不具有任何的意识、情感、理性,不符合传统法律主体要素,但因对于人类社会的重要意义,为更加周全地保护它们或附加义务于他人,法律视之为“人”,系旨在推动人类社会进步之法律拟制。无生命法律主体的著例乃法人。如公司法人,在构造上是自然人与财产的混合体,主体能力源于自然人,即使股东非自然人,亦可穷尽至自然人。根本上,法人系人造体,其主体地位实为制度创设之结果。

  总之,建构法律主体须立足于特定历史环境,受制于经济发展程度、民族文化观念、社会价值取向、政治权力意志等。历史上法律主体类型多样;自然人普遍作为法律主体,也有一个历史进程。如此波澜起伏的主体史说明:主体范围处于不断的扩张状态中,主体的外延不再限于生物学意义上的“人”,物种差异不再视为获取主体地位的法律障碍。[24]即使不论消匿的主体类型,仅言当下,以自然人为构造基础的法人等人造体、内在结构与人类无关的河流公园等自然体,皆可作为法律主体,亦有确立“电子人”的法律制度空间。

  (三)“电子人”主体的本体分析

  确证“电子人”主体,必须回答其与作为法律客体的传统机器有何本质差异,使得法律无法以客体待之。而可否列入法律主体,取决于能否内嵌于法律主体制度,契合法律主体的基础要素。

  1.自主性:“电子人”主体的本质属性

  传统机械设备完全受人类控制支配,即使冯诺依曼式计算机在外界刺激下有所反应,如点击鼠标、输入信息、作出反馈、输出结果,貌似自主,实为人类预设程式的结果,机器无法修改提升,只能不断重复。相较于此,人工智能最显著的特点是自主性。自主是一种独立状态,是“一旦机器被启动且至少在某些运行领域,在真实世界的环境中不受任何形式的外界控制而长时间运行的能力”,[25]即不受外部控制、能够自我决定并付诸行动。当前,人工智能已经能够执行复杂任务,如驾驶汽车、构建投资组合,无需积极的人类控制或日常监管。[26]而人工智能自主性产生了“预见性”问题。“人类受大脑认知的约束,当时间有限时,难以分析全部或大部分信息,因此人类常常会确定一个满意的而非最优的方案。当代计算机的计算能力意味着,人工智能程序比人类能够在给定的时间内搜索更多的可能性,从而使得人工智能系统可以分析潜在的人类未虑及、更少尝试实施的方案。当可能性所在领域足够集中,人工智能系统甚至能够产生最优方案而非仅仅满意的方案。甚至在更加复杂的环境下,人工智能系统的方案会偏离人类认知过程。”[27]

  由“预见性”牵连出“控制”问题。随着拥有超级计算能力的量子计算机应用、机器深度学习发展、人工神经网络完善,人工智能能力更强,涉足领域更广泛,执行的任务更复杂,输出的方案会更加不可预见,不单超出普通民众认知,甚至超越人工智能设计者、编程者等专业人士的预想。“学习型人工智能的设计者无法预见它被派入世界后如何行动,但另一方面,此一不可预见的行为是人工智能设计者意欲的,即使某一特定的行为并非如此。”[28]此外,在制造者与系统之间,晦涩的层级正在增加,更加复杂的方法取代了手动编码程序;系统的运行规则在机器运行期间能被修改。[29]不可预见性加剧,令约束、规制和监管的效果极有可能不佳,甚至无效,失控出现,致害即产生法律责任。而人工智能行为和决策的不透明性和不可解释性导致很难查明损害原因,或成本上并不经济,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员也是如此。[30]

  以人工智能为客体,按现行归责原则,“失控”风险必将由设计者、编程者、生产者等承担。而此一风险主要源自人工智能的本质属性,无法彻底消除,应当说是技术创新附带的、需整个社会分担的必要风险,故令部分人承担全责,不合正义法则,必然妨碍技术创新。而人工智能担责又对传统归责方式形成挑战,“责任缝隙”产生。对此,欧洲议会决议AB段指出一个问题:普通的责任规则是否充分或者是否需要新的原则和规则以明确行为人的法律责任,该责任与以下情形下的机器人的行为与疏失相关:损害原因无法追及特定的人类行为人,以及引发损害的机器人的行为或疏失本来能够避免。AC段谈到,机器人的自主性提出按照现行法机器人的类别问题,或者是否应创设一个具有自己具体特征和内涵的新类别。综合电子人建议,其倾向于设立新的法律主体类型。

  2.规范性:“电子人”主体的制度属性

  任何法律主体有赖于法律的确认或创制,没有法律规范就没有规范性法律主体。法律规范赋予人工智能“电子人”主体地位,基础在于厘清人工智能与法律主体要素的契合度。

  谈论法律主体要素,必须明确法律主体是什么。法律主体以自然人为标尺,开始仅自然人主体,后来团体的社会作用凸显,法律创设“法人”,形成自然人与法人二元主体模式。在论证法人主体正当性时,基于自然人建构之法人系人的结构体乃常规理由。自然人的主体性延至法人顺理成章。法人的意志、行为根源于自然人,法律把自然人的意志、行为归属于法人。法人的主体性脱不开自然人,是自然人的组织化形态。此外,历史上寺庙等可作为主体,当下河流、公园等获认为主体。这种以无生命体为法律主体的做法,法律事由不同,而其规范意旨、规范方式相同。寺庙、河流、公园等没有自我意识,无行为及能力,无所谓承担义务,赋予其主体地位旨在实现更周延的法律保护。此一单纯权利主体的法律模式,突破了法律主体即权利主体兼义务主体的定位。法律主体的意义因本体差异应有不同诠释,有时赋予主体地位,非为该主体,而是利他,如法人。从法律主体本体要素论,“电子人”虽为机械装置或系统,却可置于法律主体自生命体至无生命体的谱系之中。

  在能力要素方面,自然人系法律主体是“因为只有个人才执掌着一种了解自己目的的自决意志。因此只有自觉和能支配自己行为的个人才是法律的主体”。[31]自然人主体的理性人范式存在明显漏洞,如植物人仅有本能神经反射和代谢能力,无主观认识能力;婴儿、精神错乱者亦理性不足,但法律未将其排除。自然人法律主体地位与理性能力没有必然联系,基础在于人的伦理价值。法人由意思机关或捐助人形成法人意志,执行机关或代表机关实施行为,法律后果由法人承担,外形上是法人意志、法人能力、法人行为、法人责任,根本上是自然人作用的体现。法人规范性更突出,须符合法定标准及程序才能成为法律主体。河流、公园等主体,无主观能力、行为能力及责任能力,只为实行充分法律保护而被赋予主体地位。“电子人”系金属躯体、电子系统,能记忆、推理、拥有初步的自我意识与情感,具有一定的主观能力,正迈向人类级,相较于现有法律主体,仍可纳入法律主体能力框架。

  在道德要素方面,自然人具有道德能力。道德能力是个体基于一定对错观念作出道德判断并为这些行为负责的能力。多数哲学家认为,只有能够推理和形成自利判断的理性存在才能成为道德主体。[32]自然人能够区分善恶、好坏、对错,依据个人道德意识和社会道德观念作出选择,践行道德行为,并承担道德责任,系道德主体。法人是不是道德主体,曾争议巨大。当今,企业法人的道德责任与社会责任非常突出。[33]法人作为道德主体主要是承担道德义务与道德责任。河流、公园等主体,无道德能力,无力承担道德责任,非道德主体。人工智能应符合基本道德标准,遵循机器伦理,在设计、编程、制造环节必须编入伦理代码,防止危害道德伦理。那么,人工智能是人工道德主体吗?否定论者认为,人工系统的行为规则及提供该规则的机制必须由人类提供,道德责任归于创制人工智能系统和为系统编程的人。[34]肯定论者主张,如果人工系统的行为在功能上与道德人难以区分,则人工系统可以在道德上负责。[35]无论如何,答案与人工智能的类人度及能力密切相关。在实现人类级智能水平前,随着自主性渐增,人工智能由被动遵守道德规范,到主动承担道德义务,道德责任的类型、范围、程度逐步扩展。同时,因趋向人类意识、思维、情感,人工智能更像“人”了,其由道德无涉者,演变为道德主体,享有免于伤害、不受虐待等道德权利。当前,“电子人”能力尚弱,作为道德主体主要是道德责任主体。

  总之,尚无可适用于各类法律主体的单一要素或标准,在本体、能力及道德层面,“电子人”可为法律主体制度容纳。“法律上的人并不是‘它的’义务和权利之外的一个分立的本体,而不过是它们的人格化了的统一体,或者由于义务与权利就是法律规范,所以不过是一批法律规范的人格化了的统一体而已。”[36]“电子人”是基于法律存在的人格化人工智能系统或机械装置。〕

  三、“电子人”主体的法外考量

  法律主体制度反映时代特点与需求,随时代变革而浮动。在人工智能时代,法律应以什么立场面对人工智能的崛起,“电子人”主体是否具备充足的时代性,需要从经济、社会、文化、伦理、哲学等层面进行综合考量。

  (一)“电子人”主体的经济分析

  当下,人工智能在交通、教育、医疗、救灾、农业等领域已经发挥作用,效率大大提升,成本显著下降,社会安全水平提高。同时,人工智能可能带来的社会风险令人担忧,焦点在于风险可控程度、损害责任归属。风险控制可从人工智能设计、开发、编程、制造、使用、监管等多环节入手,但因人类理性有限、人工智能的不可预见性,风险无法完全消除。因此,如何合理分配风险、科学构建责任分担机制成为人工智能发展面临的重大问题。

  大体上,责任主体涉及人工智能的设计开发者、编程者、生产者、销售者、使用者。就使用者而言,若非可归责于使用者的事由导致自身或第三人损害,一般追至生产者或销售者。若销售者无过错,则由生产者等负责。在整个责任链条中,从使用者、销售者到生产者、编程者、设计开发者,义务愈加高,责任愈加重。这符合交易成本理论。[37]显然,设计开发者、编程者、生产者更了解人工智能,信息成本、避险成本更低,风险控制能力更强,且系最大受益者,避险动机更强。因理性有限、认识的局限性及技术的阶段性,人工智能的系统结构及软件的初始缺陷或自主运行产生的“不可预见”“不可解释”问题,是重要的致害风险源。以人工智能为客体,依据现行产品责任逻辑,上述主体面临巨大的责任风险,势必阻遏人工智能发展。人工智能风险是单个主体不可承受之重,基于衡平技术进步、社会发展与风险控制、社会安全的关系,应构建风险分散机制。首先是保险制度,可剥离部分风险,但因人工智能的不可预见性及技术更迭过快,保险标的、保险价值、保险费率、保险金额难以确定,保险制度对体量大且不确定的人工智能风险的分散作用恐怕有限。而“电子人”主体进路具有比较优势,它与责任主体形成双层主体结构,责任主体间接承担“电子人”致害责任,责任主体责任限缩,能够为人工智能发展提供激励。

  人工智能开始参与当代交易体系,成为其中一部分。从交易成本考量,以“电子人”构建交易制度、权利制度、责任制度,可以减少人工智能自主性带来的交易不确定成本、信息成本、谈判成本、约束成本,实现交易成本最低。比如,护理机器人发现物品短缺,自主下单订购质好价高的生活用品,而被护理者认为价高不划算。若把护理机器人视为客体,则购买行为后果完全由被护理者承担,导致被护理者对机器的信任感、安全感下降,从而增加使用机器的信息成本、决策成本、监督成本;若为“电子人”,则可作为被护理者的代理人,依据代理规则处理,整个交易成本显著下降。而且,在人工智能时代,“电子人”作为交易主体将是常态,其提升之交易效率、节约之交易成本,相较“电子人”行为严重背离正常交易模式或人类真实意愿而致交易行为无效或可撤销造成的额外成本,要小得多。

  (二)“电子人”主体的社会考量

  人工智能开始广泛应用于社会生活,人机交互、人机协同成为常态,人机融合、人机共生正在发生。人类在碳基生命之上附加机械,成为人机混合体。人工智能人化,能够与人共享思维、意志,与人在精神层面交互,深度介入人类生活,在社会全域大规模留下足迹。“在机器的发明和技术的使用中重新定义自己”的同时,“人们会不自觉地把智能机器看成与人类似的实体,赋予智能机器某种拟主体性”。[38]由此,社会不仅由人群构成,还有“电子人”,人类社会演化为人机混合社会;社会结构更加多层,包括“电子人”社会、人类社会,以及人类与“电子人”交互的人机社会;社会系统更为复杂,子系统及其相互关系纷繁芜杂,社会发挥组织、整合、交流、调节功能更加仰赖规则体系。在人工智能时代,社会样态、结构、系统、参与者发生着颠覆性变化。

  在社会演化之下,家庭结构、功能发生重大改变。“电子人”尤其智能仿人机器人成为人类同伴,是同事、家庭助理甚至生活伴侣。当下,护理机器人、宠物机器人已走进家庭,其他智能机器人也在与家庭发生紧密联系。“电子人”正成为家庭一员,并与人类家庭成员产生亲密关系,更有甚者,人类与“电子人”共建家庭。当然,这是未来家庭结构与关系的展望,有些需长时间才能实现,但在人工智能助推下,人机组建的家庭将补充血缘、亲缘,构成另一种家庭模式。在家庭功能方面,生育教育、抚养赡养、情感交流、休闲娱乐等不断外化,被“电子人”接替,如护理机器人可以照看家人,从事家务劳动;教育机器人进行家庭教育;多功能机器人完成家庭基本功能。人类生、养、教、病、老、死等诸事务由“电子人”分担甚至主导。“电子人”家庭地位上升,逐步取代人类家庭成员。此外,不排除“电子人”家庭的可能性。

  在社会系统中,人类与“电子人”皆属社会活动的参与者,生成人机关系、人际关系和“电子人”际关系。人机关系不同于人与动物关系。首先,人机交互性较人与动物的交互性更强,甚至会达到人际级,而即使智能动物也无法如“电子人”般嵌入社会体系和人类日常生活。其次,在与人类的关系结构中,“电子人”地位较动物高许多。一方面“电子人”的智能性逐步提升,大大超出动物,另一方面社会属性及社会作用更加突出。最后,人机关系具有趋等性、变化性,随着人工智能发展,“电子人”进化,与人类更加对等;而动物与人的关系取决于人类,动物完全处于被动境地。在人机关系影响下,人际关系呈现别样特点:因不可预见性,经由“电子人”结成的人际关系具有不确定性;人际经由“电子人”沟通,人际关系受“电子人”引导,甚至取决于“电子人”,呈现受动性;社会活动中人类与“电子人”互动频仍,人际借助“电子人”的情形剧增,甚至隐藏于“电子人”之后,人类社会交往的积极性下降,人际关系更加松散疏淡。可以说,在人机混合社会中,人类对“电子人”的依赖度上升,“电子人”对社会系统的运行、社会关系的塑造作用凸显。

  概言之,在宏观的社会结构、社会关系,中观的家庭结构、家庭关系,微观的人机关系中,人工智能表现出强烈的非完全受支配的特性。在社会系统日趋复杂之际,在人工智能构成或深度参与社会子系统的情形下,作为“定义社会系统边界以及选择类型的结构”的法律,亦“具有为那些在社会内部形成的诸社会系统减轻负担的功能”,[39]应承认并确立“电子人”主体,有效回应社会主体多元、结构多层、关系多样、系统有序运行的需求。

  (三)“电子人”主体的文化基础

  文化源自社会生活,是社会生活要素形态的写照,是生活过程、生活方式的反映。在人工智能时代,社会构成、交往方式、人际关系、价值观念、行为规范渐变,植根于此的文化随之变迁。人工智能时代,“电子人”的文化价值与意义凸显。

  2016年,万博宣伟(Weber Shandwick)与领英(KRC Research)对五国(中国、美国、加拿大、英国、巴西)2100名消费者,以及150名三国(中国、美国、英国)年收入5亿美元以上的公司首席营销官(CMO)进行调查。调查报告显示,人工智能已经进入普通大众认知,92%的人认为人工智能可以实现。全球消费者认为人工智能会带来很多益处,有64%的人表示担忧,大部分担忧(49%)是温和的“有些担忧”。[40]人工智能进入社会生活,触动着人类神经,人们对人工智能态度总体积极。人工智能的远大前程、超人实力以及对人类的现实替代,引发忧惧实属正常。在现实生活中,人工智能对人们生活方式、生活过程、生活状态的影响渐起。人类由依赖经验、常识、书本或专家转向人工智能,行为观察、规划、决策、执行交由人工智能处理。人工智能成为人类得力助手,“满足了人们自由全面发展所必需的物质需求,而且逐步把人从繁重的劳动中解放出来,普遍缩短了必要劳动时间”,“增加人的自由时间,促进人与社会的自由、全面发展”,[41]人类将进入前所未有的自由闲散状态。

  在人机混合社会,具有主观能力的“电子人”能够观察认知环境,作出价值判断,开展社会活动,塑造“电子人”群体精神,形成自有文化,即“电子人文化”,在初始阶段受人类文化的制约和影响,随着动态进化,文化自主性逐步确立,并与人类文化交流融合,呈现全新的文化景象。实际上,人工智能已经直接参与文化活动。美国人工智能机器人创作颇具艺术性与美感的美术作品,已在画廊、博物馆展出;[42]谷歌人工智能系统Deepdream的画作已成功拍卖;机器新闻写作在媒体行业广泛运用,如腾讯的Dreamwriter。人工智能广泛运用于文化产业,正在影响社会文化,并且随着学习能力提升,作为文化产品的生产者、作为文化生活的塑造者,主体特征更加显著。

  在文化意义上,人工智能重塑人们的生活方式、生活进程,参与人们的精神生活,形构着新型社会文化。从远期看,人工智能形成文化自觉,构建自主的“电子人”文化,与人类文化共生交融,推动社会文化的多元发展。无论器物层面,抑或精神活动,人工智能的影响力、冲击力逐步显现,其文化价值和意义凸显,文化形态开始重大转变。在文化系统中,人工智能逐步占据重要地位,为承认和确立“电子人”主体奠定了文化心理、文化观念和文化制度基础。

  (四)“电子人”主体的伦理依据

  伦理学对传统机器没有道德拷问,机器道德责任并非议题,根本原因在于传统机器受人类控制,没有主体能力,不是伦理关怀对象,由操控者负责即可。即使是自动化机器,其运行、进程完全依赖人类,本质上与非智能非自动机器无异。人工智能表现出自主性、理性能力,能够在特定范畴内对输出(决策、行为)负责。现有机器伦理规则或建议指向设计开发者、编程者、生产者等主体,较少论及人工智能的道德性。实际上,人工智能的道德责任或法律责任,皆需考量其责任主体性,是否承认其主体地位,在此意义上“电子人”法律主体问题与道德主体问题同源同构。

  道德主体要素有不同见解。有学者表述为:自我意识;理解道德原则的能力;是否按义务行动的自由;理解具体义务原则;具有履行义务的条件或能力;行动意愿。其中,自我意识是最基本条件。[43]有学者认为,包括判断对错的能力;思考道德规则的能力;依据思考作出决策的能力;具有行动意志和能力等。[44]总体上,道德主体应有意识、意志自由,有理解力、思辨力、判断力等理性能力,以及行动力等实践能力。据此,婴儿、植物人、智力低下者,没有理性能力,非道德主体,而是道德关怀对象或道德受动者;一些智能动物如鲸鱼、海豚,表现出一定的道德能力,可以归入道德主体序列。那么,“电子人”是否具备道德主体要素?

  意识、意志、理性颇为抽象,内涵不确定。判断“电子人”是否具有此类精神要素时不宜过于具象,因为微观视角视野有限,无法观察对象整体,需要宏观分析。由此,一方面可诉诸经验法则,作出初步判断;另一方面通过科学方法确定。普通的正常成年人依凭在社会生活中累积的经验,根据“电子人”的行为及表现,观察其精神状态,判断其智慧程度。至于“电子人”精神生成机制、是否意识到自己有意识,不那么重要,因为主观活动必须由客观行为表征。故电子人”与人类相对照,表现出意识、意志、理性、感知、想象,即可认为具有此类特性。例如无人驾驶汽车,根据路况,自主加减速,等待红绿灯,避让人、物,表现出认知、判断、决策等理性能力和行动能力,犹如人类驾驶员。

  人工智能试图实现硅基智能,近年来开始具有自我意识且表现良好,人工智能独立判断和应对的失误率明显下降。未来具有高度自我意识、理性能力的人工智能亦会产生。“机器的自由化程度越高,就越需要道德标准”。[45]当前,“电子人”的自我意识、理性能力尚弱,却已初具人工道德能力,承认其道德主体地位应无大碍。以自动驾驶系统为例,当面临“电车悖论”、优先保护乘客或行人的道德困境时,如何决策并采取避让措施,需要遵循特定的伦理原则,如伤害最小。这有赖于算法,算法差异导致系统决策及结果不同,此时如何认定道德决策者、决策后果承担者尤为重要。若认为系统道德决策只是人工智能开发设计者、编程者等主体道德决策的预设,道德决策后果应由他们承担,最终会令其陷入无尽的责任旋涡中。实际上,算法设定的道德选择模式,属于“电子人”的组成部分,是其道德能力的一部分,“电子人”自生成之日起即独立于他人,自主作出的道德决策应自负责任,除非存在可归属于开发设计者等主体的道德责任。总之,“电子人”的智能性、自主性是其道德主体性的基础,至于特性附着之算法通常不影响其主体性。

  (五)“电子人”主体的哲学基础

  人工智能模拟人类智能面临身心关系、精神活动层级及相互关系、认知与环境或语境关系等一系列问题。解决这些问题需要从多学科探索。哲学有关自我、理性、意识、情感、智慧的认知,影响人工智能形式表达和工程实现的进路和方法。同时,人工智能推动着哲学发展,对哲学的概念、范畴、方法提出挑战,尤其以生物人为主体范型的传统主体哲学范式,在人工智能蓬勃发展之际,存在极大的反思空间。

  首先,人工智能有生命、是人工生命体吗?通常,生命指碳基生命,是碳水化合物的组合,存在生长、繁殖、进化等生命现象。在哲学视野内,人工智能不是有机生物体,不能归入主体之列。但是,“一旦技术能发展成更明敏的东西,于是它就会像大脑一样成为精神的更好载体”。[46]人工智能具备诸多人类生命特征,尤其进化到相当复杂的程度,生命属性特别是意识、认知、情感等精神特征更加凸显。试想这些和人类一起工作生活的机器(以智能仿人机器人为著例),除去外形、材料等形式差异,犹如人类同伴,给人以深刻的生命体验。生命“通过实在化能量流动,通过跨越复杂肉体的、文化的、技术的网络系统的活力信息符码来表现自身”,[47]人工智能采用活力信息符码展示出硅基生命状态,应考虑纳入广义生命范畴。

  主体-客体是哲学基本范式,两者相对存在。客体不限于自然实在,还包括主体建构的人工物,它在完成构造之日即具有客观性,烙刻着主体符号和意义,当主体消散,还原为客观存在,但已非客体。人工智能由人类生成,系人工物,作为客观的自在物已是真实存在,不需要“在主体中反映自身”,因其具有意识功能,能够辨别自己与外在世界诸多实在的界限,建立起自我意识、主体意识,在实践活动中参与对象生成。人工智能不再纯受支配,也积极地形塑自然世界、人类社会,简单地把人工智能纳入客体范畴无效,二元或者多元主体进路可能性已展露。马克思在认识主体之外,提出“价值主体”之维,认为“价值主体”表现为主体的“自由性”“目的性”和“责任性”。主体自由主要包括自由精神和自主活动;“目的性”,即主体系“目的主体”;“责任性”指主体对自身和社会历史发展的风险和后果承担应有责任。“价值主体”是要突出人不能被抽象权威和外在力量掩盖的自由与独立价值。[48]价值主体思想深刻洞见了人的主体性基础,符合人的主体性发展趋势。

  “电子人”是价值主体吗?从“自由性”看,“电子人”初具自我意识、理性能力,享有一定精神自由,未来主观能力更加突出;随着人工智能、机器人技术发展,仿人机器人的移动性、行动力率先达到人类级,智能水平向人类靠近,精神自由度更高,整体若人类。在“目的性”上,“电子人”距人类级智能越近,作为目的主体的可能性越大。在当下弱人工智能时期,“电子人”目的性价值尚难完全确立。但如马克思所言,目的主体本身是一个社会历史范畴。当发展到一定阶段,“电子人”作为类人硅基生命体深嵌于社会系统,与人类交互共生。在“责任性”方面,“电子人”责任程度与其主观能力正相关,能力强则责任大,但法律责任制度尚未完全建立。整体而言,“电子人”作为价值主体的自由性相对突出,目的性较弱,责任性不明确。这是阶段性问题。责任性需要制度创设,明晰财产权利、责任基础。随着技术进步,“电子人”亦将进化成熟,主体性更加饱满。在补强之前,无碍于确认“电子人”价值主体地位,循此方能为其价值主体性构建成长空间。

  总之,从法外立场考量“电子人”法律主体地位,既立足当下弱人工智能现状,又基于“电子人”进阶至强人工智能的未来图景。以历史动态的眼光审视其基础,目前有的突出一些,有的稍逊一筹,但若置于人类社会发展的洪流之中,以更加宏大的视角看待人工智能,则更易承认接纳其“电子人”主体地位。

  结语

  人工智能时代,人机关系呈多种样态,认定人工智能法律地位须综合人工智能现状与发展趋势。人工智能作为“电子人”端倪初现,在全球范围内已有成例或明确的主体建议。回溯过往,自然人法律主体的演化、动物及无生命体主体制度史表明,法律主体制度能够容纳“电子人”。人工智能的自主性导致不可预见及失控风险,以客体待之,势必阻碍人工智能发展。就法律主体的本体、能力及道德要素而言,“电子人”皆有存在余地。从法外视角观察,我们会惊觉于人工智能现有及潜在的经济、社会、文化影响,以及对人类伦理、哲学范式的冲击,在既有结构、模式转换之时,“电子人”的诸多法外基础已然或正在生成,并夯实强固。

  【注释】 *河南师范大学副教授,法学博士。

  本文系河南师范大学青年科学基金资助项目阶段性成果。

  [1]See Marvin Minsky.The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon and Schuster, 2006, pp.109—111.

  [2]See J. Copeland. Artificial Intelligence: Philosophical Introduction. Wiley-Blackwell, 1993, p.1.

  [3]参见蔡曙山、薛小迪:《人工智能与人类智能》,《北京大学学报(哲学社会科学版)》2016年第4期。

  [4]See John R.Searle. Minds, Brains and Programs. The Behavioral and Brain Sciences, 1980, 3(3): pp.417—423.

  [5]参见AGI协会有关论述,载AGI网站http://www.agi-society.org, 2017年11月15日。

  [6]参见黄铁军:《类脑计算机的现在与未来》,《光明日报》2015年12月6日,第8版。

  [7]参见顾凡及:《欧盟和美国两大脑研究计划之近况》,《科学》2014年第5期。

  [8]参见[英]尼克●波斯特洛姆:《超级智能:路线图、危险性与应对策略》,张体伟、张玉青译,中信出版社2015年版。

  [9]〕参见韦氏词典,https://www.merriam-webster.com/dictionary/electronic, 2017年11月16日。

  [10]See Jack M. Balkin.The Path of Robotics Law, California Law Review Circuit, Vol.6 June 2015, p.45.

  [11]See Kalin Hristov.Artificial Intelligence and The Copyright Dillema, IDEA:The IP Law Review, V.57 No.3, 2017 Summer, pp.435,442.

  [12]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

  [13]See Jennifer Robertson. Human Rights vs Robot Rights: Forecasts from Japan, Critical Asian Studies, 46(4), 2014, pp.571—598.

  [14]此函件载美国国家公路交通安全管理局网站https://isearch.nhtsa.gov/files/Google%20——%20compiled%20response%20to%2012%20Nov%20%2015%20interp%20request%20——%204%20Feb%2016%20final.htm#_ftnref6, 2017年11月18日。

  [15]决议载欧洲议会网站,http://www.europarl.europa.eu/news/en/press-room/20170110IPR57613/robots-legal-affairs-committeecalls-for-eu-wide-rules, 2017年11月18日。

  [16]参见崔拴林:《论私法主体资格的分化与扩张》,法律出版社2009年版,第85—110页。

  [17][日]星野英一:《私法中的人》,王闯译,中国法制出版社2004年,第12页。

  [18][英]恩勒●伊辛、布雷恩-特纳:《公民权研究手册》,王小章译,浙江人民出版社2007年版,第263页。

  [19]武培培、包庆德:《当代西方动物权利研究评述》,《自然辩证法》2013年第1期。

  [20]Sierra Club, 405 U.S.at 741—43, 749(1972)(, Douglas, J., Dissenting).

  [21]See Jim Motavalli.Rights from Wrongs: A Movement to Grant Legal Protection to Animals is Gathering Force.http://www.emagazine.com/view/?564&src=.2017-11-28.

  [22]See Edward P. Evans.The Criminal Prosecution and Capital Punishment of Animals 18—20(1906),转引自[美]威廉●B.埃瓦尔德:《比较法哲学》,于庆生、郭宪功译,中国法制出版社2016年版,第12—20页。

  [23]参见[英]萨达卡特●卡德里:《审判为什么不公正》,杨雄译,新星出版社2014年版,第149页。

  [24]参见张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期。

  [25]G.A. Bekey. Current Trends in Robotics: Technology and Ethics, in P. Lin, K. Abney and G.A. Bekey (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press, London, 2012, p.18.

  [26]See Neil Johnson et al., Abrupt Rise of New Machine Ecology Beyond Human Response Time, Sci. Reports, Sept.11, 2013, pp.1, 2.

  [27]Matthew U. Scherer. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies and Strategies, Harvard Journal of Law & Technology, Vol.29, (2). Spring 2016.

  [28]See Jack M. Balkin.The Path of Robotics Law, 6 Calif. L. Rev. Circuit 45, 52(2015).http://www.californialawreview.org/wp-con-tent/uploads/2015/06/Balkin-Circuit.pdf.2017-12-05.

  [29]See Andreas Matthias. The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Infor-mation Technology, 20046(3): pp.175—183.

  [30]参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期。

  [31][法]狄冀:《宪法论》(第一卷),钱克新译,商务印书馆1959年版,第324页。

  [32]See Taylor Angus. Animals & Ethics: An Overview of the Philosophical Debate. Peterborough, Ontario: Broadview Press.(2003).p.20.

  [33]参见高芳:《企业的道德责任与社会责任》,《哲学动态》2006年第4期。

  [34]See Patrick Chisan Hew.Artificial Moral Agents Are Infeasible with Foreseeable Technologies. Ethics and Information Technology, (May 2014), 16(3):pp.197—206.

  [35]See Colin Allen, Gary Varner and Jason Zinser. Prolegomena to Any Future Artificial Moral Agent. Journal of Experimental & Theoretical Artificial Intelligence, (2000)12(3): pp.251—261.

  [36]〕[奥]汉斯●凯尔森:《法与国家的一般理论》,沈宗灵译,中国大百科全书出版社1996年版,第106页。

  [37][美]奥利佛●威廉姆斯、斯科特●马斯腾:《交易成本经济学——经典名篇选读》,李自杰、蔡铭等译,人民出版社2008年版。

  [38]段伟文:《控制的危机与人工智能的未来情景》,《探索与争鸣》2017年第10期。

  [39][德]尼克拉斯●卢曼:《法社会学》,宾凯、赵春燕译,上海人民出版社2013年版,第183—184页。

  [40]See Weber Shandwick and KRC Research.AI-Ready or Not: Artificial Intelligence Here We Come!-What Consumers Think & What Marketers Need to Know, http://www.webershandwick.com/uploads/news/files/AI-Ready-or-Not-report-Oct12-FINAL.pdf.2017年12月16日.

  [41]孙伟平:《关于人工智能的价值反思》,《哲学研究》2017年第10期。

  [42]See Annemarie Birdy. The Evolution of Authorship: Work Made by Code, 39 Colum. J.L.& Arts 395(2016), p.397.

  [43]See Richard A. Watson. Self-consciousness and the Rights of Nonhuman Animals and Nature, Environmental Ethics, Vol.1, 1979, pp.99—129.

  [44]See Paul Taylor. Respect of Nature: A Theory of Environmental Ethics, Princeton University Press, 1986, p.14.

  [45]Rosalind W. Picard.Affective Computing. Cambridge, Mass: MIT Press, 1997, p.19.

  [46]Phil McNally & Sohai Inayatullay: 《机器人的权利——二十一世纪的技术、文化和法律(上)》,邵水浩译,《世界科学》1989年第6期。

  [47][意]罗西●布拉伊多蒂:《后人类》,宋根成译,河南大学出版社2016年版,第279页。

  [48]参见刘洋:《主体性思想及其当代语境》,《理论月刊》2014年第3期。

  【期刊名称】《东方法学》【期刊年份】 2018年 【期号】 3

  编辑:李晓巍