摘 要:互联网中的虚拟数据往往包含着个人隐私、劳动成果等有著重要价值的信息,但目前利用人工智能获取这些信息的商家和个人则极有可能因侵犯到他人权利而违法甚至犯罪,但其责任往往难以认定,为了更好的保障公民的隐私权、人格权、数据财产权和知识产权等权利,有必要通过构建虚拟数据法律保护制度来对互联网信息技术进行法律上的规制。本文以人工智能为例,针对其工作原理和模式,来探讨潜在的侵权风险以及对虚拟数据的法律规制。 关键词:人工智能;互联网;虚拟数据;侵权;犯罪 人工智能概念在1956年被提出以来,借助互联网信息技术、大数据和算法的更新显示,已经具备了类似于人类的思维方式和自我学习能力。Google的围棋人工智能阿法狗连克李世石、柯洁两位围棋世界冠军后,引发了各国对于人工智能研发的极大热诚,并在短时间内取得了突破性成果。人工智能这一颠覆性技术除了在工业、金融、服务等领域展现出远超人类的工作效率和精度,并极有希望成为全球下一个经济增长点,但其借助于数据信息的搜集、分析和处理来达成设定目标的运行模式也引发了大量学者的关注和思考[1]。其中主要集中在人工智能对于社会伦理、法制结构以及个人隐私乃至国际关系上可能带来的诸多问题。本文就人工智能在对虚拟数据的使用为切入点,探讨其中可能出现的各类法律风险,并就如何构建对于虚拟数据的法律保护制度提出相应的建议,以降低人工智能在对数据的使用过程中对其他法律主体的权利侵犯风险。 一、人工智能在获取虚拟数据时存在的侵权风险 人工智能的深度学习方式是以当前互联网中以虚拟数据形式存在的信息筛选过程。而我们的个人信息、日常习惯、行为记录、创造作品等历史活动都构成了供人工智能学习的大数据库,人工智能除了搜集信息来完成自己的任务外,对于搜集信息的方法是否侵犯他人的各项权利则无法识别,由此带来的一系列权利侵犯风险值得学术界关注。 1.侵犯私人生活 随着人工智能以及物联网技术的发展,人工智能在结合物联网技术后,可以依照人类设置既定的程式来操控各种监测设备,人工智能可以通过自动操控无人机、摄像头、录音设备、监控设备等来搜集图片、录像、音频等资料。这种情况下,即便被侵权人发现自己的隐私权受到侵害,往往也因技术原因难以举证。近年来,运用高科技产品侵犯他人隐私权的案件持续增长,运用人工智能类似技术来窥探获取他人隐私已经成为主要手段之一,但由于使用人工智能手段隐蔽性高,不易被发现,因而在侵权人的确定方面十分困难。 2.个人信息的泄露 当前,人们的身份信息、财产信息等私人信息在政府、银行、保险等各机构和商家处保存,且绝大多数是以手机号码、微信号码、银行卡号、QQ号码等绑定在一起,随着人们对于手机的依赖性越来越强,只要携带手机,人们的日常作息和行动轨迹就已经全部暴露在商家或一些机构手中,我们购买商品的次数、数量、种类都会在数据交易完成后上传至云端,商家运用人工智能技术,推算出人们的消费习惯和消费倾向,进而利用手机、电脑中的插件实施广告精准投放;诸如一些运动手环/手表则可以记录人们的心跳、行走步数、血压、睡眠时长和质量,并将这些信息通过物联网上传至互联网,并由人工智能分析出人们的健康情况、健康需求,再经由手机APP向人们提供保健品的购买选择[2]。虽然我国在《民法总则》第111条和《网络安全法》对于个人信息的收集和使用进行了约束,但人工智能在被用于从事对公民大数据收集和分析的过程中并不能鉴别取得的个人信息或数据是否存在违反法律的行为,而商家利用人工智能实施商业活动时可能存在数据的泄露风险等等一系列问题,都有可能导致侵犯他人的合法权益。 3.肖像权的滥用 随着人们在互联网上上传的照片数量每年以几何数字递增,以及光学设备的不断更新,以人工智能为核心的人脸识别的图像抓取和分析技术的精确率已经超过了95%,但与此同时,政府部门、机构或商家在利用人工智能技术采集人们的肖像后在未经处理和权利人同意的情况下在互联网上进行公布的行为则可能存在侵犯他人肖像权的风险。如我国一家开发人工智能人脸识别技术的公司,在海外展会中展示超过数万张随机收集的人脸识别图示并用于企业对外技术宣传,其行为显然已经侵犯了被拍摄者的肖像权[3]。 4.对其他人格权的侵害 除了上述权利之外,诸如自然人的声音、动作、表情等其他人格权利,也持续受人工智能技术的威胁,目前很多软件都可以实现对自然人的声音、行为特点、特有表情进行模仿,并在未经他人同意的情况下擅自对外宣传或使用,则有可能会构成对他人人格权的侵害。 5.对物权的侵权风险 在人工智能的核心内涵在于模仿人类搜集、处理和分析信息和数据的思维模式。在人工智能所检索的数据库中,大致分为私人所有的数据、企业组织所有的数据以及公共机构所有的数据。其中,人工智能选取的有效数据越多,人工智能所取得的工作成果也就越有价值。但在这一过程中,显然需要明确数据的取得途径和所有权人,以保障对他人数据的合法使用。我国《民法总则》第127条规定了虚拟数据的新型财产权属性[4]。因此,在人工智能在利用虚拟数据时是否存在滥用和泄露他人数据而侵犯他人数据财产权显然需要受相关法律的规制。这就需要人工智能对算法进行数据选取方面的设定,而这又将影响到人工智能分析后所取得的成果质量,目前人工智能在数据使用时是否侵犯他人的虚拟数据财产权这一问题难以得知,一方面是因为人工智能使用何种数据,在不限制范围的情况下,即便程式开发者可能也无法得知;另一方面,人工智能的算法本身就属于一种商业机密,不会因为人工智能侵犯了他人的数据财产权就将其进行公布。以上多种原因共同造成了目前个人和企业组织的虚拟数据保护均暴露在侵权风险之下。 二、人工智能滥用虚拟数据引发的犯罪风险 1.人工智能获取虚拟数据方式可能引发的犯罪 人类历史上的每一次科技革命在带给人们更加便利生活的同时,也在给社会的和谐和秩序带来新的挑战。互联网技术从出现至今,各种犯罪活动层出不穷,而随着人工智能的出现,既提高了人类社会发展的效率,也更新了犯罪的方式和手段。部分传统犯罪形式在新型高科技的改装下,对人类社会危害程度不断加深,其损害范围也从针对单个个体逐渐群体化。 2017年,浙江绍兴发生全国第一起通过人工智能软件实施大规模诈骗的案例,该类犯罪共分为四个不同的团伙独立作案,相互只存在数据交易,没有直接的联系,但共同特点是均采用不同的人工智能软件进行作案。第一个团伙利用软件自动攻击服务器并获取用户后台数据,并将数据自动分类卖给下线,下线通过机器人向搜索过关键词的群体定向发布数据信息并寻找买家,买家通过购买又另一团体设计的"撞库"软件,能够自动输入验证码以及回答验证人工操作而设置的模块滑动并进行自动图片识别,进而登陆个人用户的社交软件并自动发布消息实施诈骗[5]。从整个流程来看,每一个环节都是以人工智能机器人操作为核心犯罪手段,第一阶段的团伙运用人工智能的骇客软件在无风险的情况下成功获得公民个人信息超过10亿条,而制作"撞库"软件的团伙在自己制作的人工智能图片识别则是通过"深度学习",在识别图片和滑动模块方面成功率超过99%,在团伙落网前,"撞库"软件已经完成了259亿次图片识别,最终实施诈骗的团伙则利用机器人收集的聊天记录和信息定向发布信息给活跃好友,单笔诈骗金额1000元,总诈骗金额超过了600万元。有机构测算,我国互联网黑色产业链的从业人数超过150万,市场规模高达千亿元[6]。尽管各类商业机构也在积极开发人工智能来识别相应的犯罪,但基于"深度学习"的功能同样能够在犯罪方式上进行更新。倘若不对人工智能在对虚拟数据的提取和使用方面进行法律保护,极有可能在将来的人工智能技术的开发中让全部公民都暴露在人工智能犯罪活动的风险下。 2.人工智能可能会导致新的犯罪形式产生 在对人工智能的分类标准上有强人工智能和弱人工智能之分,前者主要指的是具备推理和解决问题的具备自我意识的智能机器,而后者则是必须在人类的指令下完成既定的工作的人工智能。随着人工智能领域的迅速发展,强人工智能尽管受到人类伦理和道德限制而未能取得进展,但弱人工智能在各领域均取得了重大突破,并且在某些方面已经具备了强人工智能的特点。这就存在人工智能机器在数据的选择上可能自主学习获取数据更快捷、更有效的方法,而网络中存在的大量指导人们学习制作病毒、骇客技术可能会被人工智能自主学习并运用于数据的收集工作,这一点可以从阿法狗与李世石第二次对弈时以压倒性的优势胜出看出,正是阿法狗在基于搜索网络数据的同时自我对弈,衍生出几何级的资料库后,与先前的实力有了天差地别的变化[7]。 不难预见,即便是弱人工智能技术,也有很大可能性会通过神经网络系统来自我学习并掌握获取数据的所有技能,并在人类不知情的情况下采取非法甚至犯罪的方式进行学习,从而造成严重的社会后果。我国最高院和最高检在关于虚拟数据和信息犯罪方面的司法解释,虽然指出对互联网中的虚拟数据信息系统应给予必要的保护,但对于网络数据所蕴含的价值保护则没有做出说明。从上节中的案例可以看出,人工智能对于数据的获取是定向、专业、高效的,通过学习如何利用漏洞取得进入数据库,并在极有可能不被发现的情况下,利用一次网络攻击便能获得大量的个人信息,从而大幅降低犯罪成本。 三、以人工智能为力的虚拟数据和信息的法律保护制度构建 鉴于人工智能技术可能引发的法律风险,如何在人工智能广泛运用的大背景下减少由于对虚拟数据的滥用而对社会造成的负面影响,不仅考验着人工智能产业的发展,同样对构建社会虚拟数据保护的法律制度构建提出了严峻的挑战。 1.限制人工智能对虚拟数据采集的范围 由于商业需要,很多情况下人们在使用各类APP、注册网站、成为会员的过程中要向商业机构告知自己的个人信息,以牺牲部分隐私来换取便捷的商业服务。而多数不良商家或缺乏职业道德的员工常常对外低价出售个人信息,并将数据上传至互联网中。这类案件在我国已经呈普遍多发态势,且对于掌握人工智能技术的使用者来说,收集这类信息已经轻而易举。因此,在人工智能对大数据的使用过程应当在一般情况下禁止对个人信息的搜集和匹配,即便在出于安全保护、行政行为的运用人工智能使用个人信息,也应尽最大可能的保护个人信息不被上传或公开,避免他人对个人信息的二次利用。如摄像头拍摄的人像、录影机录制的视频等等,在必要的运用中都应当对镜头或图片中的人像先进行预处理再上传或公布,即便必要的使用人工智能对个人虚拟数据进行分析时,也应考虑是否违反了保护被采集者"人格尊严"的宪法精神。综合考虑在合理合法的使用人工智能分析和保护个人信息安全之间寻找平衡。 2.信息的双向交换 在人们的信息被用做科学研究、政府办公、商业分析或公共安全等各类用途时,一般是使用人工智能的一方在未取得他人同意的情况下开展的,个人信息的被使用者也自然无法知道自己个人信息的使用和泄露情况,因而个人信息的安全性和隱私性便不能得到有效保障。为了减少这类信息不对称情况,除了国家特殊机关外,所有使用个人信息的组织和机构,必须就使用个人信息用于特定用途的原因、目的和方法予以公示,并将使用的人工智能技术的种类、名称和基本工作原理向社会展示,让社会中专业人士和公众进行监督,并对使用过程中可能存在的泄露和滥用风险提出改进意见。 3.技术处理与行业监管 早在1990年,联合国就制定了《个人隐私和数据保护原则》,并提出数据的使用应符合可持续发展原则,对于个人信息的收集方式应符合合法和公平的原则,在用做他途时应征得信息权人的同意,并采取严格且必要的信息保护措施,防止个人数据被可能具有非法目的的第三方获取并使用[8]。我国《刑法》第253条中也规定了未经同意获取公民个人信息、行动轨迹数量达到一定程度即构成犯罪。但实际情况下,即便许多企业是基于合法前提取得用户信息及隐私相关的个人数据,但其对于数据的保护不周、产生个人衍生信息、或以其他形式储存或转发的数据,都可能导致第三人滥用个人信息从事违法活动,且往往难以举证。这就需要对相关行业进行严格的规范,诸如限制使用人工智能对个人的自动定位、通讯记录、设备信息进行上传后储存的行为;也可以通过将上述方式取得的一手信息进行虚拟化处理,以免数据被盗取或滥用。 参考文献: [1]姚万勤.大数据时代人工智能的法律风险及其防范[J].内蒙古社会科学(汉文版),2019,40(02):84-90. [2]曹烊.人工智能伦理问题探究[J].法制博览,2019(09):223. [3]物联网产业视点[J].物联网技术,2019,9(03):1-2. [4]刘友华,魏远山.机器学习的著作权侵权问题及其解决[J].华东政法大学学报,2019,22(02):68-79. [5]熊予晴.人工智能侵权问题研究[J].法制与社会,2019(08):15-16. [6]李琳.互联网时代人脸识别技术在社会公共领域的应用研究[J].信息记录材料,2019,20(03):26-27. [7]薛俊杰.智能运动手环在大众健身中的应用研究进展[A].中国生理学会运动生理学专业委员会、北京体育大学.2018年中国生理学会运动生理学专业委员会会议暨"科技创新与运动生理学"学术研讨会论文集[C].中国生理学会运动生理学专业委员会、北京体育大学:北京体育大学运动生理教研室,2018:2. [8]刘宪权.人工智能时代机器人行为道德伦理与刑法规制[J].比较法研究,2018(04):40-54.