用电影看人工智能谈谈未来的生活

在近几年来我们会发现有关机器人人工智能相关的电影不断推出,探讨着将来会是如何?而这样的人工智能系统可以透过够多的学习样本,将整个系统模型的逻辑能力达到非常强的机制。

004 (1)

比起过去程序设计师可掌握程序所有过程与参数,在深度学习技术中,人类对整个学习过程的掌握非常有限,而且在大量数据学习后整个模型建立后执行又产生了很棒的效果,尤其这类学习是可以在计算机的虚拟世界中进行(比如 AlphaGo 进化成 Master 时是透过两台 AlphaGo 在虚拟世界对弈),速度其实比在现实世界中快非常多,加上机器人不必休息,学习时间比人类还长,可以想见,透过深度学习,人工智能未来的进化会非常快,甚至有超越人类智力的「奇点」会在 2045 年来临的预言出现。

人类对机器人一直有很高的期待与想象,而这样的期待和想象表现在小说与电影中,如 1978 年开始的《星球大战》系列电影,1982 年的《银翼杀手》、2001 年斯皮尔伯格导演的《A.I.人工智能》、2004 年威尔‧史密斯主演的《机械公敌》、迪斯尼集团的卡通《超能陆战队》、《机器人瓦力》等。

002-106

谈到机器人电影,就不得不提到科幻小说家以艾萨克·阿西莫夫(Isaac Asimov)1942 年的《我是机器人》小说中的短篇〈转圈圈〉(Runaround)首次提出机器人三大定律:1. 机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;2. 除非违背第一法则,机器人必须服从人类的命令;3. 在不违背第一及第二法则下,机器人必须保护自己。这三大定律后来变成他个人的机器人小说与很多其他小说作者所遵循的准则,而在很多电影中,都看得到三大定律的影子,成了电影中人工智能逻辑的出发点。这三大定律,到最近也被热烈讨论,是否要直接成为未来机器人必须遵守的准则,甚至连微软 CEO 纳德拉都仿效他提出「人工智能安全六大守则」。

接下来让我们谈谈电影中的人工智能,在《星球大战》系列 1~6 集电影,男主角身边的好帮手,两个自主具人工智能的机器人,C-3PO 及 R2D2 一直以主角的命令行事,C-3PO 是语言机器人,会多国语言,跟现在的 Chat Robot 一样会跟主人对话;R2D2 是协助主角驾驶的机器人,有点像我们智慧家庭控制家电的机器人(例如 Amazon 的 Alexa),但是它不会说人话,华硕做的机器人就比较像这两个机器人的合体,既会讲话,又能够控制家中电器。

004 (2)

《银翼杀手》电影改编自菲利普‧迪克的小说《复制人会梦到电子羊吗?》(圆神出版事业机构的寂寞出版社最近改名为《银翼杀手》在台出版),电影版(非后来熟知改成复制人的录像带版)跟原著提到人造人的头脑是计算机,运行人工智能,而其中提到的如何辨识人工智能跟一般人的方式是利用「共感测试」:人类可以通过这个测试,但是人工智能不能。不管具备人工智能的人造人怎么学习,因为没有情感,只有逻辑,就没办法通过这个测试,虽然他们很会模仿人类。《银翼杀手》原著小说就说到,人造人是拚命学习人类,但是人类会有同情心,人造人面对自己的人造人伙伴被除役(就是被毁灭),只会冷眼旁观,这跟现在的人工智能是基于逻辑行动,除非逻辑有设定要解救同伴,他们是不会动作的。不过《银翼杀手》的设定并没有让人造人遵守机器人三大定律,所以人造人可以伤害人。

004 (3)

《A.I.人工智能》中,描述人造主角机器人外表跟人一样,而被人设定后就会忠于设定自己的主人(故事中是妈妈),结果主角机器人虽然后来被妈妈抛弃,即使一路面临艰辛,经过很久时间后,人类都灭亡了,外星人找到它,都还是思念着自己的妈妈,而且这部电影中的机器,都有遵从机器人三大定律,不过主角机器人被抛弃,却是因为它的不知分寸(没学习到),差点伤害妈妈真正的小孩,为了安全理由,只好选择抛弃。

004 (4)

《机械公敌》电影本身就取材自艾萨克‧艾西莫夫的小说,探讨了机器人三大定律的逻辑的矛盾,让主导叛变的人工智能大脑认为要伤害部分人类,才能保护大部分人类,而且为了保护人类,就要限制人类的自由,于是发动叛变。

004 (5)

《超能陆战队》卡通电影中,机器人杯面一开始被设定是要保护主角,且不能伤害人类,但主角为了报杀害哥哥的仇,把它改装成战斗机器人,开始违反三大定律中的第一定律:主人的设定是要它伤人,它就可以伤人。而最后杯面为了让主人逃出异空间,只好自己留在异空间,把自己当作作用力的跳板,送出主人,但是把自己的记忆存在磁盘片交给主人,这符合三大定律的第三定律,另一种保护自己的模式。

004 (6)

电影中常常会认为人工智能也可以有类似出自感情的动作:例如在卡通电影《机器人瓦力》中,在地球上寻找和污染后是否有生命迹象的伊芙,遇到被命令一直守在污染后没有人类的地球的机器人瓦力,展开了这场故事,其中伊芙所在的宇宙飞船上的领航机器人,因为被设定命令是不得返回地球,所以全力阻止返回地球的动作,而机器人瓦力为了伊芙,宁愿让自己被压坏,这段就涉及到机器人瓦力本身的设定,为何会想要拯救伊芙?而伊芙发现机器人瓦力为了自己被压坏,就急忙找出机器人瓦力的零件,让机器人瓦力能够在更换后复活,还有其中的其他机器人决定协助机器人瓦力、伊芙及决定回地球的人们,违反领航机器人的指令,这又是基于什么样的逻辑设定呢?这些牵扯到这些人工智能的逻辑开端设计,这可能包含认定为同伴的基准,以及必须协助同伴的逻辑(类似人类的道德?)但是以现在的人工智能的发展,绝对不会像人类因为有化学变化对应的情感,而做出这类的事情。

004 (7)

由以上电影的例子可知,因为人工智能的现有技术是依据逻辑,而且学习的速度与执行的效率胜过人类,所以可以在单纯操作性与逻辑的工作上胜过人类,机器人将成为人类的好帮手。当然未来也将有可能在坏人下令驱动下、坏黑客骇入系统下令,或是本身逻辑矛盾中,发动伤害人类的战争,不过只要机器人背后的系统很多样,加上足够的安全机制,像漫威的复仇者联盟相关电影中天网可以骇进所有系统,危害全世界的机率就很低,而且有恶势力,相信会有正义的力量相抗衡。而霍金、马斯克力推 23 条人工智能原则,与微软 CEO 推的「人工智能安全六大守则」,也代表人类已经意识到人工智能发展下未来可能引起的危险,从逻辑起点直接设定限制,让日后的逻辑发展不至于到无法控制。只是机器人强的只在逻辑,不像人有直觉、自由联想跟丰富的情感力,人类接下来的职业相信将往这些方向发展,而需强大逻辑力和单纯操作的部分,就留给机器人助手吧!

Copyright 104sense.com