西南知识产权评论(第九辑)
上QQ阅读APP看书,第一时间看更新

二 人工智能的法律地位

2016年,欧盟法律事务委员会向欧盟委员会提交动议,要求赋予最先进的机器人“电子人”身份,并赋予其特定的权利和义务;2017年,沙特阿拉伯授予美国汉森公司研究的智能机器人“索菲娅”公民资格。机器人的电子人格及公民资格的享有撼动了传统法律体系所确立的以人类为主体的架构。由此带来的问题是人工智能能否跨过主客体之间的鸿沟一跃成为法律上的主体,如果能,它应当满足哪些要件。

对此,西南政法大学人工智能法学院孙莹博士认为,对人工智能的主体性的探讨应当回到民事主体的话语体系中,即讨论民事主体的本质是什么,民事主体的判断标准是什么。张建文教授认为,目前我们对人工智能主体性问题的探讨具有局限性,我们的视野局限在如果人工智能是物,物权法能否解决;如果人工智能是人,自然人制度和法人制度如何回应。他进一步谈道,《机器管家》这本书给了我们新的启示:人具有主体性的条件是什么。一般而言人具有主体性是当然且无须论证的,先具有主体资格然后有自由、财产、安全;反之,如果一个对象有自由、有财产、有安全保障还不具有主体性,那它应当满足怎样的条件才具有主体性?

(一)人工智能主体性问题之质疑

西南政法大学李雨峰教授认为,人工智能的主体性是不是一个真问题还有待讨论。因为如果人工智能按照人类预设规则运行,它便始终无法逃脱人类的控制,而不具有主体性;如果人工智能失控了,它是否具有主体性这一问题已经超出了人类立法的范围。华中农业大学刘旭霞教授认为人工智能技术与生物技术具有相似之处,在现有的法律体系中它们是科学、技术或科学技术应用的产品,在此背景下,人工智能的主体性是一个假问题。清华大学吴伟光副教授从生命的本质出发亦认为人工智能的主体性是个假问题,因为生命的本质是欲望,有欲望才有生命;人工智能不能独立产生欲望,因而不可能成为主体。重庆市公安局电子物证司法鉴定中心田庆宜不这么看,他认为人和机器的最大差别在于意识,一旦机器有了意识,必然有自己的需求和欲望,从而构建自己的价值观。

(二)人工智能主体性之现实否定论

西南政法大学周清林副教授立足于已有研究从伦理学和哲学的角度对当下人工智能是否具有主体性作了否定性阐释。他认为,就现有研究而言,人工智能为客体的观点无法解释“人工智能具有理性本性”和“人工智能基于自身的独立意志具有主体性”这两个问题;相应地,人工智能具有主体性的观点也不能解释为何人工智能不具有伦理人格,而只能是代理人或电子人格,若将其认定为拟制主体,它能否成为责任主体。他通过攻克人工智能之客体性无法解释的两个问题,证成人工智能不具有伦理人格;通过阐释拟制主体实践的原理,论证了人工智能不可能从工具性的存在变成人格的存在,继而不可能为自然人主体;加之当下人工智能不具有承担责任能力,因而也不宜认定其为拟制主体。具体而言,他认为,人工智能为对人脑计算功能的模仿,是一种计算理性、被动理性,这种理性具有虚拟化、抽象化特点,不具有道德观和情感观。人工智能的计算理性是一种被定义在“刺激—反应”结构里的单向认识理性,但这种认识理性不同于我们近代以来创设的认识理性。康德的认识理性提出,计算理性不是刺激而是对刺激与反应结果进行再度分析,人工智能做不到这一点,否则它就真的具备人的认知能力。从人的认知能力来讲,人是可以被认识的,他自己可以成为认识的对象,机器人不能反过来认识它自己。理性不是人类的本性,人类的本质乃自由意志。法律主体以伦理人格作为起点,伦理人格就是自由意志。因此人在人文主义的设定上和计算理性没有关系,通过计算理性定义人本身就是一种误解。自由意志的伦理人格是一种偶然的能力而不是作为知识必然的能力,与主体有关的行为能力才涉及认识,但这里的认识也仅以社会常识为主,跟计算理性无关。法律拟制主体不符合伦理性的存在,但基于工具性、社会现实存在性和财产性的考虑,依然将其设定为财产上的行为能力者。目前人工智能不可能成为真正的责任主体,因而也不宜认定为拟制主体。

重庆移动金融有限公司总裁吴祺博士从人工智能技术的理论渊源和现实出发,认为当下我们还处于弱人工智能时代,其大部分理论来自统计学,其算法是基于统计的自动化,现阶段的法律并没有将人工智能作为独立的主体,因为现有的人工智能仅是按照操作者和开发者的意愿来执行相应的命令。

西南政法大学马海生副教授从民法的角度分析了当下人工智能不具有主体性。主要理由在于,法律主体之关键在于他能够享有法律上的权利,承担法律上的义务和责任,目前及未来一段时间内的人工智能无法享有法律上的权利,承担法律上的义务和责任,在现有的法律体系下,人工智能不可能成为法律主体。即便否认人工智能的主体性,在现有法律框架下亦足以解决人工智能带来的问题,主要涉及两方面,即人工智能生成内容的归属和人工智能侵权责任的承担。

(三)人工智能主体性之未来不可知论

西南政法大学曹伟副教授认为,准人工智能不具有主体性,真正的人工智能是否具有主体性犹未可知。因为对人工智能主体性的讨论暗含了一个前提,即人工智能是否具有主体性是由人类立法所决定的,但这一前提未必成立。当超越人类的人工智能出现后,立法主体究竟是人还是人工智能,现下无从知晓。与此同时,已有的图灵测试和阿西莫夫机器人三原则亦具有局限性,不能解决真正的人工智能是否具有主体性这一问题。西南政法大学张建文教授也认为,阿西莫夫机器人三原则没有奠定人工智能主体性的基础,其出发点是安全,即必须将人工智能置于人类的控制下,不要给人类带来伤害。它不是规范亦不是规则,而是一个以人类为考量的伦理原则。

重庆市第四中级人民法院孙海龙院长认为,对人工智能主体性的探讨应当回到法律上,从现实性、伦理性和法律性三个维度予以考量。人工智能的主体性源于现实,即人工智能引发的新的社会关系严重影响了人类的生产、生活方式,更离不开伦理性,即法律是最低限度的道德。既有法律体系是人类主宰的话语体系,人具有主体性的条件无非是其享有权利和义务并能够承担法律责任。从这一起点和思路出发,当下人工智能毫无主体性可言,但是在未来我们也许就没有制定法律的话语权了。他始终认为,人工智能不是人类智慧创造的成果,如果它永远由人类衍生而来,阿西莫夫机器人三原则就不是浪漫的幻想而是可以实现的。在人类的创造过程中,人工智能可能与其他物种结合而具有主体性,只是我们不知道而已。