快生活 - 生活常识大全

人工智能时代的刑事风险


  摘 要:人工智能是我国乃至全球范围内的科研重点,在促进医疗等众多领域快速发展的通过女士,也引发了许多伦理以及法律方面的问题,给人们的工作生活以及社会和谐发展等产生消极影响。本文简单介绍了人工智能在刑事方面的地位与风险,系统分析了律手段与伦理道德之间的辩证关系,在遵循时代社会发展客观规律的基础上,为降低人工智能时代刑事风险而提出合理化的建议与措施。
  关键词:人工智能时代;刑事风险;策略
  在互联网信息时代的今天,人们对人工智能的研究从未停止。到现在位置,人工智能已经实现了两次质的飞跃与发展,正在进入第三次快速发展时期。人工智能技术的研发与应用也促进相关部门不断的调整和完善与之相关的各项法律法规,因此来解决人工智能技术研发与应用过程中出现的各种问题。从人工智能利益层面来讲,法律应明确生产中智能机器人所产生的人生伤害行为的刑事责任主体划定标准和范围,加强对非法利用人工智能来组织开展违法活动的监控力度,最大限度的提高人工智能刑法条纹的精细化与明确性,从而提高全社会以及人们对人工智能时代的应变能力。
  一、简单介绍人工智能的刑事法律地位
  人工智能刑事法律地位是当今社会法律界、科技界等讨论的焦点问题与热点话题。人工智能在刑事法律上责任主体的确定直接影响我国对人工智能范围的量刑程度与处罚力度。人工智能只是人类研发的一种新技术,是帮助人类更好生活的一种技术,也就是说人工智能并不具备真正意义上的人格属性,也不能用约束管理人的法律来约束管理人工智能产物。人工智能技术的深入研发,尤其是脱离程序自主运行方面的研发产物,其缺少自动遵循相关法律规定的能力,也没有遵守相关法律的意志,当其给他人造成经济损失或者身体伤害的时候,也会因不具备刑法可归责要求而无法得到应有的惩罚。当前科技界的人们呢经人工智能具体划分为弱人工智能与强人工智能两大类型,其中弱人工智能则是指那些却受自主解决问题能力的机器,虽然隶属于人工智能技术范畴,能够学习较为复杂的知识与技能,但是却无法独立自主的组织开展推理活动,智能化水平的应用领域也有限,当前正处于弱人工智能发展阶段。科学技术的深度研发与广泛应用,为强人工智能时代的到来提供了技术支持,强人工智能具有较强的自主性、独立性与适应性,能够根据外界环境的变化来调整其发展方向与发展目标,虽然谁也无法确定强人工智能时代到来的具体时间,但是强人工智能时代是社会时代发展的必然趋势。部分科技界专家学者认为主体资格是强人工智能时代的主要特征,坚持强人工智能威胁论的观点,但是从目前来看这种危险尚处于理论研究状态,还没有对人类经济社会的发展产生实质性的威胁。
  法律人格是人们享受法律规定的权利以及承担法律规定义务的前提与基础,人工智能对人们合法权益造成的损损害是客观存在的事实,应加强对人工智能刑事责任主体意志的研究与判断,并以此为基础来决定是够对人工智能进行相应的发刑事处罚。刑事责任的认定需要综合分析客观事实与侵害行为之间的互动性、因果性,从不同的方面来研究分析人工智能实施该行为的最终目的,也就是说人工智能为达到某种目的而组织实施伤害他人合法权益的行为。由于当前正处于弱人工智能发展的重要实施,弱人工智能并不具备独立自主的行为认识能力与控制能力,也就是说弱人工智能并不具备刑法主体意识,达不到成为其刑事责任制主体的要求和标准。弱人工智能产品不仅以何种方式来侵他人权益,其最终的法律承担者只能是人,可以追求造成该侵犯行为或者侵犯结构的人工智能产品的拥有者。可以根据人工智能违法行为产生的原因来判定人工智能背后主体的刑事责任。在弱人工智能阶段,应进一步明确人工智能开发研究人员、拥有着以及使用者相关权利与义务,但是也应主义不能无故或者可以扩大人工智能研发人员的法律责任。以后随着人工智能技术的深度开发以及强人工智能时代的到来,也可以让具备较强自主意识与独立意识的人工智能来承担相应的刑事责任。
  二、正确认识法律手段与伦理道德之间的辩证关系
  社会关系并非一成不变的,而是会随着社会的发展与时代的变迁而产生的相应的变化。道德与法律都是最常用的调整社会关系的手段,法律与道德以各自独有的方式和渠道来调整和改变社会各领域中的社会关系。人工智能在一定程度上解放了劳动力,帮助人们完成一些固定简单的工作,实现了人们与机器的共同发展,但是人工智能在提高人们工作生活水平的同时,也对现阶段的法律法律、伦理道德以及社会秩序等产生重大冲击。当前如何确定人工智能机器人省份以及处理人际关系的方法等都是当今社会迫切需要解决的难题。人工智能机器人缺少基本的法律意识与道德意识,人工智能机器人本质上就是一种高科技设备,是科研人员为实现某种目的而便携的代码程序,简而言之,人工智能机器人的一举一动、一言一行都是科研人员提前输入好的代码和算法,因此,人工智能机器人的言行举止具有较强的程序性与无意识性的特点。另外,人工智能机器人也对当今社会精神以及人文精神发起了挑战,加剧了人类生产生活活动的公式化,降低了人们对各种生产生活活动的决定权与主导权,必然会因其人們价值观与世界观的改变,极大的降低了道德伦理对人们生产生活活动的影响力,弱化了道德伦理对人工智能机器人以及未来生产生活活动的指导与约束作用,这与原先人类社会以道德约束自身行为的模式相冲突,因此,人工智能时代极有可能会颠覆原先的世界观与价值观。法律与道德两者之间相互独立、相互促进、相互影响又互为补充,正确处理法律与道德两者的关系,提高对两者的重视度,促进两者的协同发展,只有这样才能促进人工智能以及经济社会的协调发展。
  三、解决人工智能引发的信息安全难题
  人工智能风险可以划分为功能型风险、法律权益风险两大类型。人工智能时代必然会增加个人信息被泄露的风险,也就是说越来越多的人会用人工智能技术来非法获取他人基本信息,进而造成个人信息风险系数会急剧上升。大规模的数据信息是人工智能技术得以研究和应用推广的基础,许多人们为了满足人工智能发展对大规模数据信息的需求而主动拓宽获取数据信息的途径,其中自然包括大量公民的基本信息。但是,我国法律明确规定要保护公民基础信息,不能以各种理由和借口来侵犯公民个人信息,否则就是侵犯公民个人信息罪。《消费者权益保护法》中也对经营者收集使用消费者个人基本信息的义务与要求。近些年来,我国相关政府部门通过不断的调整和完善个人基本信息相关法律条文的方式来提高对公民个心信息的保护力度。不管是在以前,还是以后,都应保护公民个人基础信息,并根据经济社会的发展以及人工智能技术的研发应用来提高公民个人信息相关的法律规定。
  四、解决人工智能时代刑事立法问题
  人工智能刑事立法并不是短时间内就能完成的,而是会随着人工智能技术的深度开发与推广应用现状来进行相应的调整和完善。人工智能刑事立法的基本目标是促进人工智能的健康平稳发展,提高对非法利用人工智能行为的限制与约束力度。对于人工智能刑事立法不仅要鼓励人工智能的研发,还应加强对人工智能风险的预防与控制力度,如果不加以控制,极有可能会损害人类社会的健康发展。人工智能刑事立法可以借鉴互联网金融刑事立法等方面的经验,逐步提高对非法人工智能行为的惩治力度。不同国家对人工智能刑事立法的观点各不相同,但是不管持有何种态度都应加强对人工智能的监督管理力度,而不能加以放纵或者置之不顾。
  五、小结
  人工智能的发展对经济社会发展趋势以及人类生命安全等都产生了重要一个内向,加快人工智能时代刑事立法速度,辩证看待人工智能发展的影响,调整完善人工智能相关法律,为人工智能的持续发展提供法律保护,最大限度的降低人工智能时代刑事风险。
  参考文献:
  [1]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究, 2018(1).
  [2]马长山.人工智能的社会风险及其法律规制[D].华东政法大学,2018(6).
  [3]王燕玲.人工智能时代的刑法问题与应对思路[J].政治与法律,2019 (1).
  [4]李振林.人工智能刑事立法图景[J].华南师范大学学报(社会科学版),2018(6).
  [5]时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018(6).
网站目录投稿:水荷