快生活 - 生活常识大全

人工智能产品的法律人格问题研究


  摘 要:近年全球人工智能行业经历了"技术爆炸"般的飞速发展,但科学技术发展很多时候都是一把双刃剑。当下的法律体系对人工智能人格权问题的规制还存在着缺位。单从能否具备独立自主的行为能力来看,人工智能应当被赋予独立的人格权。但人工智能很难全部承担其行为所导致的结果,所以其具有的人格权又应该是有限的。为应对将来各种人工智能产品所带来的法律問题,必须明确规定人工智能的归责原则,以及加快制定人工智能的相关法律法规。
  关键词:人工智能;人格权;法律人格;损害责任
  一、引言
  人工智能的领域涉及计算机技术、数学、信息学、伦理学、神经生物学、语言文字学、哲学等学科领域的交叉以及融合。随着相关学科和研究范围的发展,人工智能的概念与外延也在不断变化着。目前,人工智能就是指那些以软硬件的相结合来达到像人类一样处理事件的智能系统。
  二、人工智能的概念、发展及其风险
  (一)人工智能的概念
  首先从字面上就可以将人工智能分为两个部分,即"人工"与"智能"。"人工"比较好理解,就是指通过人来操作或制造;但是对于什么是"智能",学界对其争议就比较大了,不同的学科对它有着不同的定义比如哲学、经济学、心理学、计算机等学科都有着自己的"见解"。但是从法律角度可以这样理解:人基于自身的意志,制造或操作某些工具,从而在无人或者少人的状态下达到预期效果的系统。这其中"人工"体现了人类在其中的参与;而"智能"则体现了人在意志表达下所展现的效果性,这一特征又是其被法律调整的目的之体现。所以"人工"是"智能"的内在前提,"智能"是"人工"的外在表现。综上所述,人工智能在法律层面的定义可以这样来表述:人工智能产品就是生产并投入市场使用该系统的具体商品。
  (二)人工智能的发展
  人工智能的发展在近十年来可以说是突飞猛进,尤其是在无人车方面:在国外,英、美、法、德、日等多个国家都相继参与对无人驾驶技术的研发,其中以Google、Uber、Tesla、等企业处在无人驾驶系统研发的第一行列。而在国内目前无人驾驶汽车技术的研发也步入快车道,众多知名企业参与,互联网企业如:百度、腾讯等,车企参与的有上汽、比亚迪、吉利等。并且自动驾驶公交阿尔法巴已经在深圳正式投入使用。近期关于人工智能最有争议的新闻莫过于2017年10月一家名叫汉森的人工智能机器人公司所生产的人工智能机器人索菲亚(Sophia),已经正式被沙特阿拉伯授予了公民身份,这标志着全球第一个具有公民身份的人工智能产品正式出现。可见,人工智能在近年来的发展越来越快,并且涉及到各个行业。
  (三)人工智能的风险
  电影不只是娱乐的载体,有时候更多的是创作者思想的表达。人类对于人工智能技术的恐惧与担忧便以电影的形式体现出来:从最初1968年的科幻史上的鸿篇巨制《2001太空漫游》,再到《黑客帝国》系列,以及直接反思未来人工智能机器人和人类之间对抗的《银翼杀手》都表达出人类对人工智能技术的担忧:那就是人工智能很可能会取代人类,因为有了自我意识的人工智能较之人类这个物种来说有着压倒性的优势。人工智能几乎有永恒的生命,且人工智能系统可以储存自己的意识在任何一台电脑上,而不必像人类一样被肉体所束缚,所以死亡对于人工智能而言将不复存在。可见,当下世界的主流观点对人工智能的发展存在着较大担忧。但科技的发展是不可逆的,尽管有不久前刚刚发生的Uber公司的无人驾驶汽车在测试中与一名横穿马路的行人相撞并致其死亡这种极端的例子,但是无人驾驶汽车同样给人类带来诸多益处,比如可以直接消除每年因醉酒驾驶导致人员伤亡的损失,在提高道路安全性的同时也挽救了很多人的生命。所以我们能做的就是有在人工智能发展的路上尽可能的小心翼翼,就科学界而已,科学家们应当最大可能的保障人工智能产品的安全性,但只有这样是不够的,整个社会必须构建完善的法律监督监管体制来应对可能发生的各种状况,由此可见,对人工智能法律的完善是多么的重要,因为它肩负着安全的最后一道防线。
  三、人工智能的法律人格制度缺位
  所谓法律人格就是指法律认可的一种享受权利、承担义务的资格法律拟制的主体,现代法律制度主要赋予自然人和法人以法律人格。对于自然人,其权利的享有以及义务的承担一般是从出生开始到死亡结束。但对于法律所拟制的主体,其享有的人格权则需要经过严格的法律规制才能获得[1]。另外人格权是指为民事主体所固有而由法律直接赋予民事主体所享有的各种人身权利。最后,人格权还是一种专属权,即他人不得代位行使。尽管世界各国的民法体系中都对自然人及法人的法律人格做了详尽的描述及限定,但对于人工智能是否具有法律人格或者具备什么程度的法律人格依然没有明确的规定。
  (一)缺乏法律伦理的支撑
  古往今来,往往一项具有划时代特性的技术被研究出来后都伴随着各种争议。二十世纪从第一只克隆羊多利的诞生便因克隆技术产生了巨大的争议,因为争议过于巨大,于是在1997年联合国教科文组织便制定了《人类基因组与人权世界宣言》且明确予以规定:禁止生殖性克隆人类,随后各国也都制定了大致相同大法律严格禁止将克隆技术用于人类。当时的国际社会对于克隆人是否具有法律人格时直接予以法定,但对于人工智能,现行法律法规对是否具有人格权时却含糊不定,没有明确的规定。
  (二)法律地位的模糊不清
  鉴于目前对人工智能法律人格没有明确的规定,致使其法律地位也模糊不清。假如人工智能可以直接适用人权理论体系制度,那么是否就意味着人工智能的法律地位等同于人类?如果是的话,享有婚姻权的人工智能一旦与人类结婚,那带来的将是对现行法律体系以及人类伦理道德体系巨大的冲击。但是即使未来发展到了人工智能具有独立的思想,可以独立自主的学习甚至生活的地步,笔者认为也不应该赋予其相应的法律人格,因为我们人类区别于其它物种最大的地方就是是否具有独立的情感以及思想,一旦人工智能也具有了与人类同等的法律地位,那就是等于承认人工智能也成为了地球上新的物种。所以我们该如何区别人工智能法律人格与人类的法律人格,这都是目前相关法律不明确所留给我们需要弥补的地方[2]。
  (三)缺乏具体的相关准则
  人工智能在短期内对社会造成的影响取决于谁能够操控它,而从长远来看则是人工智能会不会愿意接受被控制。有学者实地对厦门、广州进行考察调研:目前厦门、广州俩地的人工智能产品由厦门和广州的市场监管委进行监管及其审批,但申报的类目却是玩具类,所有对人工智能相关的申报材料标准均按照相应玩具類标准来申报,并且在海关进出口项目表上也没有人工智能这一项。所以,将人工智能作为玩具来进行分类,实在无法起到对人工智能产品的有效监管。
  四、人工智能的法律人格制度可行性探讨
  建立完善的人工智能法律法规不仅能有效的促进人工智能产业的发展与生产,也能及时准确的对其进行监管,因此首先需要解决的一个问题就是人工智能应不应当被赋予法律人格。
  (一)人工智能法律主体性质的特殊性
  学界对于人工智能的性质一直没有定论。大致有三种学说:工具说、代理说、电子奴隶说。工具说认为人工智能只是一件用来为人类服务的工具而已,所以不应当具有独立的人格权。代理说认为人工智能所做出的一系列行为均只是受人类操控而已,其不具有独立的人格权,其所做出的行为导致的任何法律结果都应由其操控者来承担[3]。电子奴隶说认为人工智能及其产品就像奴隶一样不应该有任何权利,只要为人类服务就好。上述观点放在多年前还说的通,但在目前来说每种说法都有缺陷,其共同点在于:随着科技的发展人工智能将越来越具有独立的意思表示能力,独立的情感甚至思想,并且科学技术的发展都是不可逆的,无论它最终导致的结果是好是坏。而一旦人工智能具有了独立的思考能力以及行为能力,那代理说显然是不成立的,因为人工智能所做出的行为并不一定都是人类下达的指令。而一旦人工智能具有了情感,在伦理道德的框架约束下我们也不能将其视为工具、奴隶,因为一旦到了那个时候人类甚至会疑惑该不该将具有独立思考、行为、情感的人工智能视为新的物种了。所以,不能简单的对人工智能的性质下定义。笔者认为应该将人工智能定义为具有独立思考和独立行为能力的智慧工具。
  (二)人工智能可以享有法律权利
  未来随着我们将更多工作移交给人工智能,最后可能需要面对的是人工智能的权利问题。尽管当下有很多人提出了这个问题,但在这之前,大家最为关心的仍然是人工智能的危险性问题。阿西莫夫的"机器人学的三大法则"首次出现在1942年的短篇小说《环舞》中,它的规则如下:①机器人不得伤害人类。②机器人应当服从人的所有命令,但不能违抗第一法则。③机器人还应该保护自身的安全,但是不得与第一和第二条法则所抵触。尽管已经过去70年了,但"阿西莫夫法则"依然被该系列小说视为经典教条,甚至在电影中也广泛应用。2014年1月,谷歌正式收购DeepMind时,作为交易的一部分美国政府对其规定,谷歌必须成立人工智能伦理委员会,其目的是确保对人工智能技术的明智使用,其宗旨就是在开发利用人工智能的同时,必须严谨对待人工智能可能对人类带来的危害。
  现在的科学技术条件下,人工智能已经可以像人一样管理公司以及订立合同,甚至可以根据自己的分析处理来做出决定。如此人工智能可不可以要求权利,比如赋予自己姓名、保护自己健康的权利?以及在超负荷工作的情况下可否要求休息的权利?依据斯通纳的观点,一个主体能否拥有法律权利须满足如下条件:①首先该主体可以自己主动提起法律诉讼。②司法机关在决定给予法律救济时应当考虑到相关主体的损害情况。③所实施的法律救济必须满足它的利益要求。在本质上人工智能依然是工具,但这种人工智能产品很可能价格不菲且承载着其拥有者的情感。比如陪伴失去至亲独自在家的孤寡老人的陪伴型机器人的记忆系统如果被他人损坏,那对于该老人来说就是一种损失,因为对于他来说,这个人工智能产品就像自己的亲人一样。另外法律救济满足人工智能的利益要求,比如排除妨害等都是可以适用的。由此不难看出,人工智能是满足以上关于能否作为法律权利的要求的。因此,人工智能应该被赋予权利。
  (三)人工智能必须承担法律责任
  1989年夏天,前苏联赫赫有名的国际象棋冠军尼古拉·古德科夫在莫斯科挑战一台名叫M2-21的超级电脑,在对弈的第六天后,尼古拉·古德科夫以3∶0的大比分战胜了这台电脑。胜利的古德科夫自然是洋洋得意,并且做起了一系列庆祝动作。但这时电脑显示屏确闪起了红灯,也就在此时古德科夫突然一声惨叫然后就倒在了金属棋盘上,并且尼古拉·古德科夫不断有青烟从身上冒起。等到医生赶到时,尼古拉·古德科夫已经死亡。在后来警方认定,M2-21电脑因为输棋而气急败坏,从而自行主动改变了程序,并向金属棋盘释放了足以将人电死的电流,故意杀害了尼古拉·古德科夫。由此可见随着人工智能技术的不断提高,其依靠自身的自主意识做出的不可预测的行为将会越来越不可控。由此导致的危害结果往往是由人类来承担,现实生活中,人类都要为自己的行为负责,更何况是作为工具的人工智能。那么如果人工智能产品犯罪呢,它该如何承担责任呢?笔者认为人工智能作为一种拥有独立意识并且可因此做出意思表示的智慧实体,首先在人工智能产品的研发上必须设计为具有可以承担责任并且可以对自己做出的行为是否正确进行验证的实体,这其中包含开发相关操作数据的全留存以便人工智能发生侵权行为后查验、尽可能的将人工智能相关数据做的透明化,使大众可以随时查询,以及尽可能的减少人工智能不可控情形的发生从而减轻相应的法律责任。
  五、有限的人工智能法律人格制度建设
  用法律手段来调整生命社会关系,应当是最有效、最稳定、最普遍的。我们从人工智能的特征可以看出,人工智能具有独立的自主意识并以此做出意思表示,那么它就具有法律主体资格,但这种法律主体所取得的人格权并不是完全的,因为人工智能并不能完全算是拟制的法人,所以人工智能所承担的法律后果也应该是有限的。因此在人工智能法律人格有限的基础下,我们应当制定合理且有针对性的法律制度。
  (一)国外人工智能的立法借鉴
  国外立法已经在人工智能具有有限法律人格的基础上对其做出了一些立法尝试。首先,人工智能方面的立法者与执法者必须使得人工智能的操作系统不能被滥用,相关法律的规定必须即有效的发展人工智能技术又要确保公民隐私得到妥善保护。欧盟各国在2016年就通过了《一般数据保护条例》,相关各国就加强了个人隐私和数据的保护,这其中就对用户画像等自动化决策做出了相关的规定,即用户有权拒绝企业对其进行画像等自动化决策,而且用于用户画像的数据不能包括用户的种族根源、政治倾向、宗教信仰、基因情况、生理表征等特殊类别的个人隐私数据。如今我们每个人都处在"大数据"的洪流中,个人数据已经具有重要的商业价值,甚至直接关系我们的人身安全,当下利用人工智能在网络上非法窃取个人隐私的案例比比皆是。人工智能系统在个人数据方面的使用必须严格遵循规范,如果滥用数据或私自窥探隐私将受到法律的惩罚。所以我们在人工智能技术的发展上,首先应该考虑的是该发展产物能否保障公民的数据和隐私不被侵犯,而不是一味地痴迷于科技发展。
  (二)人工智能产品有限的责任分担机制
  一方面对人工智能的法律地位进行严格的鉴定,另一方面更应该明确如果人工智能发生侵权事件时判定相应法律责任的准则。联合国教科文组织与世界科学知识与技术伦理委员会提出的解决方法是可以采取责任分担的方式,让所有参与人工智能产品的研发、生产、授权和配置过程的人来分担责任。这种制度设计的初衷,是迫使以及督促人工智能产品系统的设计者、参与者、生产者能够提前主动地履行应尽的安全性义务,使得受害者能够找到赔偿主体。另外为了保障人工智能产品发生侵权事件后是可以被相关司法机构追责的,人工智能操作系统一定要具备程序层面上可被追责的依据,以此来证明人工智能系统的运作方式是否合理合法。
  (三)我国应加快制定《人工智能发展法》
  机遇与挑战并存,不难看出,人工智能已经进入高速发展的道路上了,在不久的将来,人工智能技术会被利用在各行各业,甚至会出现在很多高技术行业,包括军工产业和航天领域,所以为使我国不在这场技术革命中落后于世界,我们国家急需加快人工智能相关法律法规制度的建设与完善,尤其是加快制定专门的《人工智能使用法》。授权立法者成立专门针对人工智能系统相关问题的机构来创设相对完善的人工智能责任承担规则。《人工智能发展法》的立法宗旨包含:①首先坚持以人为本的基本原则,由立法者授权建立"人工智能伦理委员会",通过制定一系列的规则,来确保人类社会的伦理道德不受人工智能带来的破坏。②对人工智能的操作系统建立完整的监管体系,来确保人工智能从研发到生产都处在严格的监督中。③明晰发生侵权事故后各方的法律责任,恰当且及时地根据人工智能的发展前景做出法律上的调整和规范来确保人工智能的发展始终处在正确的道路上。以及确立严格的强制责任保险投保制度,确保各方利益尤其是受害者的利益能够得到及时的保障。④明晰公民个人数据及隐私得到有效保护,确保人工智能系统对网络大数据合法的使用。⑤加强对人工智能知识产权的有效保护,以明确的法律条款为支撑,使科研人员更好的开发以及获得人工智能相关领域的专利保护。⑥还应当开展国际间的人工智能开发及应用合作。尤其是人工智能的法律法规以及伦理道德相关问题的研究,来共同处理不久的将来人工智能带来的危机与挑战。⑦最后我们还应尽快制定《人工智能产品的伦理道德章程》以此作为人工智能系统及产品研发、应用的道德基础。
  六、结语
  展望未来,人工智能无疑将是人类在近现代以来最具开放性的创新,世界也因此开启一场关于人工智能技术的巨大变革,对于我们来说这或许不亚于第二次工业革命,又或许,变革已经开始了。人工智能革命对现有法律、社会政策和伦理道德的冲击也才刚刚开始,伴随人工智能技术的不断发展与完善,我们人类自身的知识创新也需要跟进甚至超前,理论和制度的创新尤为重要。最后,期待我们整个社会能够把握和利用好人工智能技术,因为它在带给社会便利的同时,也会促进社会的进步。笔者相信在不久的将来,科学技术的智慧之光与法律制度的理性之光,将在人工智能時代交相辉映。
  参考文献:
  [1]王利明.论个人信息权在人格权法中的地位[J].苏州大学学报(哲学社会科学版),2012年第7期.
  [2]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018年第3期.
  [3]段伟文.人工智能时代的价值审度与伦理调适[C].中国人民大学学报,2017年第6期.
网站目录投稿:雨筠