快生活 - 生活常识大全

浅论人工智能发展带来的法律新课题


  摘 要:随着人工智能技术在我国的飞速发展,对人们的日常生产生活产生越来越重要的影响。而人工智能新技术的应用,也产生了些新鲜的话题,带来些新的挑战和法律问题。机器人是人还是机器,它到底是一种什么样的身份?发展人工智能,存不存在安全隐患?人工智能侵权后法律责任如何划分?如何看待这些问题,如何解答这些课题,本文将给予一些看法和观点。
  关键词:机器人;人工智能;法律责任;新课题
  近年来,随着计算机技术的不断发展和人们对高水平生活的追求,人工智能快速发展。AI人像模式拍照、虚拟个人助理、在线客服、智能家居设备、人工智能个性化喜好推荐等已经在多个方面为我们的生活提供了便利。随着人口老龄化问题不断加剧,还出现了一些智能陪伴机器人,协助老人养老,执行协助行走,卫生清理,聊天等任务。人工智能的应用给人们生产生活带来极大便利,但同时,人工智能也产生一些安全问题。对人工智能进行风险防控和法律应对,已成为当务之急。
  一、人工智能机器人法律主体问题辨析
  探讨法律问题的前提首先是,机器人到底是人还是机器?在人工智能2.0时代,机器已经可以"深度学习",可以变得社会性,可以参与一些社会活动和工作,那么这就产生了人工智能能否具有公民权的问题。当前,很多机器人被应用于完成危险任务,被要求以牺牲保护人类的生命财产安全。如果机器人被赋予人格,那这无疑是侵犯了机器人权利。在美国一部短剧中,曾描述过一蓝领机器人从事危险、无聊而绝望的工作场景,有人将这一场景与曾经人剥削人的历史相联系,认为这也是剥夺机器人权利的一种行为。马克思理论认为价值是凝结在商品中的无差别人类劳动,而机器人劳动所产生的价值归属权目前无法判断属于其自身还是它的拥有者。例如目前已出现能作曲的人工智能,那么它所创作的作品著作权是属于拥有者,还是人工智能自身?如果人工智能自身享有著作权,那么它所获得的这部分利益如何处理?
  但大多数观点认为,人工智能不具备法律人格,它不应成为人工智能作品的权利主体。人工智能创作的作品,所生成的内容或创造物,是具有著作权法意义上的作品,它是由人工智能创造者或所有者所主导产生的,因此,人工智能作品的著作权应该赋予人工智能的创作者或所有者。将人工智能作品的著作权归属于人工智能创造者或所有者,这对激励他们创新和改进人工智能,促进人工智能作品流通,推动人工智能产业快速发展,都具有积极的促进作用。
  二、人工智能安全風险问题辨析
  在确认主体问题之后,我们再来看人工智能存在的安全风险,有可能对公民造成的伤害。这就产生一系列对于人工智能侵权及责任的思考。2016年11月,在深圳举办的中国际高新技术成果交易会上,一名叫小胖的机器人发生失控,破坏了展厅玻璃,造成人员受伤。历史数据表明,机器大失控时,可能会导致被侵权人死亡。1979年一美国人曾被重型机械臂击中头部身亡;1981年,一工程师曾在修复机械臂时被活活卡死在房屋柱子上。随着人工智能在社会各个领域大规模应用,人工智能也会产生一系列安全风险。
  人工智能发展是一把双刃剑,它在给人类带来好处的同时,也带来诸多隐患和风险。一是人类安全风险。人工智能技术在军事和战争中使用,会有智能性自主武器生产,这些武器如果被不当使用,人类失去对智能系统的控制,就会给人类带来毁灭性灾难。二是社会安全风险。一方面是社会性失业风险,人工智能的生产效率远高于人类,人类许多工作就会被人工智能取代,引发大量人员失业,给社会带来不稳定因素;另方面是社会伦理安全风险,人类与机器的根本区别是意志和情感,随着人工智能技术的发展,人工智能也可能会拥有情感,这就使人际关系更加复杂化和多样化,对人类社会的伦理安全产生风险。三是个人安全风险。一方面是人身损害风险,人工智能在应用过程中,有可能会发生人身威胁和财产侵害的安全事故,成为人工智能不可忽视的安全风险;另方面是数据信息泄漏和隐私权安全风险,人工智能催生了大数据时代,产生了海量数据资源,这些数据一旦泄漏,就会对个人隐私安全造成极大威胁。
  三、人工智能法律责任问题辨析
  人工智能侵犯他人权利后,产生安全风险后,应由谁来承担责任?是人工智能开发设计者,还是参与生产的生产者,亦或是其拥有者?目前争论最大的就是正蓬勃发展的人工智能无人驾驶。对此德国在2017年提出一部草案,其中规定司机可在自动驾驶系统启动后转移注意力,但需要保持足够警觉,以便在系统发出请求时恢复人工控制。如果自动驾驶模式正在运行过程中发生事故,责任在于汽车制造商,但如果自动驾驶系统已发出人工控制信号,责任便转移至汽车驾驶者。这是对人工智能发生事故较合理的规定,对于其他人工智能机器人所造成的侵权事件,也应当制定可执行的标准进行衡量,判定责任。
  对于人工智能,我们既要顺应时代科技潮流,又要对可能产生的风险采取规避措施。首先,树立风险社会的法律理念和安全观念。世界上没有绝对安全,对于人工智能安全风险,要建立起科学的风险意识,辩证看待人工智能安全问题,消除不安和恐慌情绪。其次,开展人工智能安全评估和管理。因人工智能存在一定安全风险,要确定风险管制原则和管理体系,对有可能发生的风险进行评估,对安全风险进行最大程度的防控。再者,明确人工智能致损的责任分担机制。如果人工智能在应用过程中发生损害事故,就要明确事故发生的原因,确定事故的责任方,看事故责任是属于开发者、所有者、还是销售者或使用者,建立起人工智能产品的保险制度。最后,建立人工智能法律法规制度。要及时制定有关人工智能的法律法规,促进人工智能立法,增强人工智能安全风险管控能力,建立多元互动的安全风险规制体系。
  参考文献:
  [1]马中英.关于人工智能潜在风险引发的法理思考[J].山西省政法管理干部学院学报,2018(4):100-102
  [2]黄博,刘丽荣.人工智能的法律人格[J].法制博览,2018(32):78-80
  [3]汪婧.发展人工智能须把好法律关[J].人民论坛,2018(29):100-101
网站目录投稿:采亦