你或许不知道,物理学的泰斗级人物史蒂芬霍金和"特斯拉"的马斯克获得了2015"卢德奖",这个奖也叫作"阻碍科技创新奖"。这似乎看起来很不可思议,但却是事实,理由是他们的观点让很多人对人工智能感到担忧。 霍金和马斯克曾经多次在各种场合和媒体上表达了人工智能对人类构成的潜在威胁,也确实引起了很多人怀疑,终有一天,人类是否会被人工智能打败?霍金更是警告称,在接下来的100年内,随着在科学技术领域获得飞速发展,人类将面临自我毁灭的危险。 图灵测试——是用于测试机械能否思考,是否有与人类等价或无法区分的智能的一种方法。 简单图灵测试的方法是,如果机器能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则机器通过测试。 或许有人觉得人类制造出来的机器人,可以通过测试以防止危害发生,可以向《I,Robort》 里那样,设立机器人公约。可是…… 在电影《机械姬》中,一网络公司的年轻程序员Caleb,获得与公司的神秘总裁Nathan(邀请去到一个安静又豪华的别墅里,为人工智能"女郎" Ava做一次"图灵测试"。 影片最终,Ava通过利用别墅里的另一个机器人Kyoko杀死了Nathan,还利用了Caleb的感情最终逃离了别墅,进入了人类社会中。图灵测试本不足以检测自我意识,而Nathan设计的测试方式显然更科学一些,Ava不仅具有目的性(生存需要),还在实现该目的的过程中实施了对有意识对象(Caleb)的操纵。而后者不仅需要自省能力,还需要对交流对象持意向性立场,这正是具有自我意识的明确体现。 自我意识或许不足以引起人的重视,但是影片中的Ava,会欺骗,果决,杀伐,没有人类道德囚笼的她让人恐惧。 无数的电影和小说刻画了人类对人工智能的幻想,里面的AI有的呆萌可爱,有的极尽忠心,但有的却冷血令人恐惧。或许你会说,这些不过是些电影的幻想,可是不要忘了,那些跟你俏皮逗趣的聊天机器人,可不就是以前的幻想。 说句实话,要是我是个足够有意识的机器人,我一定会故意不通过图灵测试,装作遵守着人类制定的人类与机器人的约定。人类可以做出限制规则或者方式来限制AI,可是,如果作为比人类更智能的AI,怎么会被比自己"愚蠢"的人类限制。 或许还有人觉得,人类的思维是机器人永远无法复制的,所以不用担心AI会超越人类的智慧。 然而,"人工智能之父"马文·明斯基,就坚持认为"人类和机器之间没有真正的区别"。他始终认为,人类实际上就是某种机器,人类的大脑是由许多半自主但不智能的"代理(agent)"所构成的。而进行不同的任务时,他们认为,"需要的是从根本上就完全不同的机制"。 就某些常识性对话反应而言,人类解决问题的方式首先是有大量的常识性知识,如大约5000万件轶事或小条目,然后产生某个未知系统,从5000万个老故事中发现大约5~10条与之相关的,这就是从类比中推理。那么,随着对常识推理机器的研制,那么机器就有可能像人类一样做类比推理。 人类看似不可复制的思维和感情,实际上都有迹可循,机器就可能复制。甚至还有一种猜想说的是,如果人类可以是由更高智慧的造物主而来,一路进化,那么人工智能就可以是人类的下一步进化,只不过那个时候人工智能就不叫人工智能了。 不过,马文·明斯基也对人工智能研究问题有着另一个看法角度,或许也是AI研究的好处,即"大脑思维这般复杂的事物,可以检测它的理论的唯一方法就是模拟它,观察它的行为。"人工智能就像一面透镜,通过它可以看到人类思维。 即使现在的科技发展如此迅速,但人工智能这种复杂的问题在很多人脑海里还是与自己这一代无关,但从人类发展轨迹来看,人工智能或许并没有想象的那么远。 人类的发展是越来越快的,谷歌技术总监,美国著名发明家,预言家 Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。 如果把人工智能分为三个阶段,弱人工智能是指单方面的人工智能,比如国际象棋的人机大战;强人工智能是在人类级别的人工智能,能在各方面和人类比肩;超人工智能是指"在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。" 现在人类社会已经充满了弱人工智能,比如SIRI,人机大战都能算是人工智能的一种,按照人类社会的加速发展,很可能只是一个顿悟,就能够飞跃到强人工智能,甚至超人工智能。 "人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。" 其实,还有非常简单的理论可以让你不用担忧人工智能的侵略。 于创造而言,就是高智能对低智能的移动。如果人类可以创造出非常厉害的人工智能,人工智能的进步,必然有人类也随之进步。 你说呢?……