人类按自己的需要统治和决定着世界,然而万物灵长的自信终于被自己的造物所挑战。当AlphaGo狗第三次无可挑剔的击败李世石,不会有人质疑胜负的偶然,也找不到临场发挥的借口。
其实不需要证明柯洁和韩国棋手之间谁下的更好,只要李世石能代表一流棋手,阿尔法狗的完胜就足以给人类重重敲响警钟。我们都知道人工智能迟早赶上人类,只是不愿意也没有料到超越来的怎么快,以致还来不及做好防止下一步就被颠覆的准备。
理论上凡可量化的领域人工智能都必然超过人类,但围棋是如此复杂和难以量化以致两千多年来绝顶棋手更多用参悟而不是计算来解读围棋的最高境界。阿尔法这只不听话的狗,虽然会下围棋但估计文化程度还是文盲,就一把把人类推到阴沟。一切来得如此之快,以致用谷歌和李世石串通的阴谋论都难以抚慰人类受伤的心。
部分智者当然可以用程序再聪明也是人类工具来继续自我安慰。我们知道人类不需要担心马跑的比人快、计算器算的比人类准,但是不论是马还是计算器都只能在力量和计算这样的单项上超过人类。人类可以慷慨的承认在这些方面落后——结果无非等于承认马和计算器是上等工具。然而阿尔法狗挑战的是人类引以为主宰世界的根本——智力。之所以人类能笑傲世界,从不怀疑自己是亿万生灵中当然的上帝选民,从来就不是倚仗身高、速度、力量、计算,而是高高在上的智力。当智力王冠从人类手中失去,人类维持自负却从哪里找回自信?
人类优越论也许还没有到山穷水尽,围棋规则虽然高深但毕竟仍然属于计算范畴,至少在短期内人工智能并不能全面超过人类。很多人说深度学习技术可以使程序在几年里发展到可以写小说的地步。但是不论写剧本还是画油画,程序都是在大数据积累的基础上提供最优解而已。当下经过文学作品数据库训化的程序已经可以写出似是而非的朦胧诗,但所谓程序写作实质不过是对积累作品的模拟。程序并无法理解和欣赏美,所有写作都是为了完成指令而不是自发表达。没有情感也不懂得忧伤,人工智能再美的作品也只是骗局,写得再像纳兰伤心词也只是装病的呻吟。
在围棋上战胜人类只是人工智能理解人类世界的开端。棋类是规则世界,而真实的世界更多是非规则的。正由于现实世界和理论世界的差异,规则主义的学者常常在实干中被批评百无一用是书生,人工智能和真实世界之间的差距更远。社会是由形形色色、彼此之间你的世界我不懂的人组成,社会事件则可能是真相也可能是假象也可能是部分真相部分假象,这些也都不在棋类谋略之中。
阿尔法狗刚拿下今天的第三盘,微信上就有预言十年内人工智能将取代大多数律师、法官和检察官的工作。这个问题的有趣之处在于即便是法律这样一个传统被归为规则主义的世界,其实却是非线性的。法律实践远不止法律理论和法律条文,还包含难以预测的人性。就像婚姻法连同相关司法解释不过数百条,但婚姻案中最基本的“感情破裂”就包含了现今人工智能根本不能理解的复杂性。
法律规则和法律规则之间、法律规则和法律原则之间,甚至法律原则与法律原则之间都可能存在冲突,在矛盾之间进行选择的能力我们谓之法律艺术。比如法律面前人人平等和保护弱者两项原则就是相互矛盾的,这两项原则的适用就需要根据个案情况具体选择。即使单个法律原则也可能存在很大的模糊性,比如民法中的公序良俗和知识产权法中的合理使用就常常被专家争到面红耳赤。
举一个实例来挑战人工智能。最高人民法院《关于当前经济形势下知识产权审判服务大局若干问题的意见》规定:…“要从我国国情出发,根据我国科技发展阶段和产业知识产权政策,依法确定合理的专利司法保护范围和强度,既要使企业具有投资创新的动力,使个人具有创造热情,使社会富有创造活力,又不能使专利权成为阻碍技术进步、不正当打击竞争对手的工具;既能够充分调动、配置全社会的资本和技术资源,又能够加速技术信息的传播和利用。要正确适用专利侵权判定原则和方法,进一步总结审判经验,完善权利要求解释规则和侵权对比判定标准”。以上规定中“我国国情”、“既要使…又不能”、“既能够,又能够”,以及我国司法政策中常见的顾全大局等之精妙程度,都达到可意会而不可言传。再举一例,宪法作为最高法能否实施?如何理解我国宪法规定的言论和出版等自由?可以骄傲地说这些题目不用说阿尔法狗,连谷歌也理解不了。
人工智能无法挑战法律实践的另一个理由是,人工智能尽管可以触摸智慧,却不能度量愚蠢。法律调整的客体是人与人的关系,而人在很多情况下是非理性动物。人工智能理解理性规则容易,理解非理性就非其所能。牛顿在300年前就抱怨自己能够测量天体却不能计算人性疯狂,爱因斯坦那句”Only two things are infinite, the universe and human stupidity”(唯人之愚蠢能和宇宙同寿)说的差不多是同一个意思。其实我很难想象人工智能在人类问题上会不会陷入逻辑崩溃。阿西莫夫著名的机器人三定律第一条规定,机器人不得伤害人类。当人工智能发现连人类自己也在有限的人类历史中对同类无限伤害,如何理解机器人不得伤害人类呢?而面对不讲逻辑又算不过机器的人类,人工智能又为什么要无条件服从呢?
说的都是人类弱点,换个角度说说机器的不可靠吧。1983年,前苏联国防部计算机误判美国对前苏联发射洲际导弹,全人类都要感谢当时的值班军官在信息有限情况下冒着巨大风险以个人经验判断终止了核弹反击程序。所以完全依赖人工智能是不可靠的,人类要为人类的命运最终负责。
最后说说我的个人感觉。人工智能挑战人类必定会带来人类作为世界唯一统治者地位终结的风险。但自负又缺乏理性的人类随心所欲控制世界,已经让人类自己陷入危机。生于忧患死于安乐,人类培育出挑战人类的人工智能,未尝不是在失去自我控制能力情况下由外部力量平衡人类的自大和膨胀野心的机会。不论喜欢或不喜欢,阿尔法来了。