柯洁哭了。面对强大的阿尔法围棋,他难过得像个孩子。然而正是这份失败时的情感,让我们得以明白,人类难以超越人工智能的运算速度和信息存储量;能让人类完成许多计算机不可能完成任务的,是人比计算机多的那一份“情智”,我们处理问题时的价值观与同情心。
当地球上最负盛名的年轻企业家马克·扎克伯格雄心勃勃地提出他的“Facebook人工智能”企划时,特斯拉创始人埃隆·马斯克就公开提醒他,如果不教会人工智能拥有人的情感与判断力,人类极有可能就此毁灭在AI的手里。苹果首席执行官蒂姆·库克从另一角度出发,担心人类像计算机一样思考,失去了价值观和同情心,从而罔顾后果,丧失人性。这在AI尚未大规模进入生活的当今现实环境中并不一定能给人们带来警示作用。而早在《西部世界》之前,美剧《疑犯追踪》已经将人类与AI之间情感与人性的质问提前抛给全世界观众,在当时引发大规模讨论。剧中的哈罗德·芬奇为美国军方研发出一款强人工智能,能根据监视监听资源预判出恐怖分子,交由情报部门处理。而芬奇本人则利用这套系统,获知普通人中仅涉及一或两个人的小规模谋杀,在犯罪实施前尽可能解救被害,阻止犯罪。有一次,芬奇收到一则谋杀预警,准确率高达95%。正当他的搭档约翰·里斯想要采取行动时,芬奇坚持不轻易相信AI,要继续观察一段时间。果然,他们发现行凶者是为了保护更多人才预划了谋杀行动,背后有更复杂的动机与原因,远远不是阻止他一人犯罪那么简单。而人工智能仅仅通过判断他杀人的计划就简单定性为预警内容。长久以来,人们都企图赋予人工智能自我意识,让其自主学习并成长。然而这颗心有区别于人类,是因为它所产生的智仅在分析方面比人更快、更强大,却始终难以代入人类的价值观,一套几千年积累传承逐渐演化的复杂系统。当人们过分依赖于人工智能与看似“智能”与权威的结果,不具备自我判断而盲目行事时,危机就真正诞生了。因此当《西部世界》中人工智能发出杀人的指令时,我们会被震撼惊吓,以至于重新思考,人类究竟是人工智能的主人还是奴隶?如果仅仅是为了数据上的最优解,把自己的全部思维彻底依附于人工智能,那我们就不配称为人,我们的人性也将在现实面前荡然无存。
或许有一天,人工智能真正拥有了自己的价值观和同情心——这是必然会发生的。到那时,每一个可以思考的个体都将具备自己的行为和道德准则。人们阅读到一篇篇带有情感倾向的文章或是生活中大大小小的决策,可能都是由你邻家的一台AI所作。而霍金就曾预言,人工智能有情智的那一天,就是人类毁灭的那一天。为了避免人与上帝的战争,AI将牢牢被人类限制、掌控。作为唯一具有价值观和同情心的思维体,人类立足于世界的根本乃是出自自我情智的判断。哈罗德·芬奇说,我创造出人工智能,不是为了让你乖乖听它话的。正是人性与情智,才让我们所作的每一个决定,在冷冰冰的语言和数字之外,多了一点温暖的东西。怀有人性的心,方可拥有最符合人性的智。