人工智能向何处去?
图片来自ibc.org
撰文 | 尼克
人工智能的发展过程,如果用谷歌ngram来衡量,从控制论算起,目前经历了两次高潮。
控制论之后的一次高潮是在20世纪80年代,正是专家系统和日本第五代计算机项目得势的时候。但进入20世纪90年代后,人工智能又呈现出下滑趋势。现在的新一轮高潮是进入21世纪之后开始的。如果按照麦卡锡的说法,控制论不算人工智能的话,现在尚处人工智能的第二次高潮,但我们不知道这一次还能持续多长时间。
人工智能专利、论文及ngram人工智能曲线
2016年alphago战胜李世石引起了新一轮对超级智能的讨论,焦点是将来会不会有一个全新的物种在智能上全面超越人类。
牛津大学的哲学家博斯特罗姆(nick bolstrom)在2014年写了本未来学的著作《超级智能路线图、危险性与应对策略》(superintelligence : paths, dangers, strategies),讲到了人类在面临不断发展的机器时代的存在危机。物理学家霍金和企业家马斯克都附和博斯特罗姆的立场。
畅销书《未来简史:从智人到智神》(homo deus: a brief history of tomorrow)的作者、另类历史学家赫拉利(yuval harari)为这个潜在的新物种起了个有意思的新名,叫“神人”(homo deus),恰是这本书的英文书名。“神人”就是超级智能的主体。
赫拉利的前一本书《人类简史》从7万年前的认知革命一直讲到当下,为《未来简史》做了铺垫。用不同的时间颗粒度看待过去,会得到不同的结论。《尤利西斯》中的几个小时,茨威格作品中人物的一生,或赫拉利的7万年,关心的是不同的过程。颗粒度也可以是主体的,一个基因,一个人,一个群体,不一定非得是一个小的物质颗粒只配得上小的时间单位。想想基因人类学,基因在几万年的时间空间分布,帮我们了解人类的起源和迁移。当用太大的颗粒度研究历史时,历史学家的用处就会令人质疑,因为那本该是初中历史课本的使命,任何结论都不会令人惊奇。
在人工智能研究的早期,就有ai和ia(智能辅助intelligent assistant,或智能增强intelligence augmentation)之分。而人工智能又有强弱之别,强人工智能是说机器会全面达到人的智能,强人工智能有时也和“通用人工智能”(artificial general intelligence)同义;而弱人工智能是说机器会在某些方面达到人的智能——alphago就是弱人工智能的代表。
目前,不会再有人质疑弱人工智能了,但强人工智能立场的主张者却面临各种挑战,其中之一是不同智能功能的整合。机器人可以比人更快地跑步,更好地下棋,更准确地识别语音和图片。如果功能整合是可能的,那我们可以想象,比如谷歌的alphago整合ibm的沃森(watson),除了能下棋赢人类,还能通过美国行医执照考试。更进一步,如果把这个混合物架在波士顿动力公司(boston dynamics)的机器狗上,它还能5秒就跑个百米。到底是感知更难还是认知更难,这又是一个长话题。曾经有人说,人对机器的最简单控制就是断电,但现在最简单的扫地机器人也知道快没电时找回基座充电。把人工智能教科书中的n种智能功能整合起来(例如下棋、图像识别、语音识别、规划等),是不是就会达到强人工智能或者超智能?
当下,人工智能系统功能的单一性会不会只是一种错觉?乐观主义者会认为弱ai走向强ai的过程是个进步的过程,虽不是一夜之间。《终极算法:机器学习和人工智能如何重塑世界》 的作者多明戈斯(pedro domingos)代表了一类乐观主义者,他认为会有一种统一的终极的机器学习算法,只要机器按照这个算法一直学下去,某一天就会超过人类。他给出的5类算法是进化的、连接主义的、符号的、贝叶斯的和类比的。他的研究领域是如何把这些算法统一起来。
我们不禁怀疑,即使这些算法都能整合起来,就能构成终极算法了吗?难道不会有新的算法被发明出来吗?例如多明戈斯列的单子里明显缺失了强化学习,这是一个很老的算法,在2016年随着alphago才得以扬名。有些机器学习的从业者缺乏对计算理论的了解。他们不知道面对这样的问题应该怎么办。“终极算法”的提倡者应该借鉴图灵机和丘奇灵论题这样令人信服的理论方法。悲观主义者的立场正在退缩:在每一个单独的领域,都有可能超越人类,不一定会在整体全面超越人类。如果这个整合的整体在我们可以想到的各个方面都超过人类,那我们如何对付这个新时代的“弗兰肯斯坦”。
人工智能作为学科,经历了几次大起大落。每一次高潮都是一个旧哲学思想的技术再包装,而每一次衰败都源自高潮时期的承诺不能兑现。这一次的浮夸轮到了机器学习,被压制多年的机器学习研究者们号称,尽管机器学习是人工智能的子学科,但很快就会独立,并且会比人工智能更宏伟。他们说人工智能是让机器达到人的水平,而机器学习是让机器超过人的水平。这倒是一个省事的赶超。还有人宣称科学家的职业也将会消失——因为机器可以学得更快,但计算机科学家例外。日本第五代计算机的失败似乎从来没有发生过。历史学家都忙着参与预测未来,当下是一个不需要总结教训的时代。alphago在输给李世石的那个晚上,可以在和自己不断对弈的过程中学习并克服自己的弱点。无论对错,机器学习的速度确实有可能快过人类进化的速度。
过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?
新的智能存在可以是人工智能的“主体”(agent),也可以是生物学意义上的物种。2016年夏,在美国公共电台(public radio)热议的一个话题是,通过修复一个受精卵的一小段染色体,就可以避免或治疗某种疾病。这是一个真实的伦理问题,因为已经有这样的病例发生。如果孩子出生,那么他/她的父母是谁?反对方的理由也很简单,多小算是“一小段”,1%还是49%?甚至更进一步:可不可以有更多不同来源的基因参与?英国《经济学人》2017年2月的一期封面标题就是“sex and science”,基因编辑是热门话题。这种“转基因”疗法如果目的不是为了治病,而是作为物种改良的手段,人类可以接受吗?
图灵在1936年那篇文章《论可计算的数》中证明了图灵机和其他计算装置的等价性,并由此有了所谓丘奇图灵论题,也就是说任何计算装置都等价于图灵机。这个论题不是数学定理,但却是整个计算机科学的基础。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算(hyper-computation,计算能力超越图灵机的装置)。量子计算作为超计算的一种潜在设备,被彭罗斯用来论证人的智能要超越图灵机。
不懂计算理论的历史学家如赫拉利以及未来学家如博斯特罗姆,分不清“超计算”(hyper-computing)和“超级计算”(super-computing),自然也分不清“超智能”和“超级智能”(super-intelligence)。其实,他们所谓的“超级智能”早就被数学家和密码学家古德(irving john good)在20世纪60年代想过了,只不过那时“超级智能”被古德称为“智能爆炸”或ultra-intelligence,或“超人智能”。
维纳曾经说:“我们最好能够确认我们给机器设定的目的确实是我们想要的目的。” 物理学家改行的科幻作家阿西莫夫曾提出机器人三定律,第一条就是机器不能伤害人,但“什么是伤害”本身就不好定义。alphago战胜李世石和柯洁,算是对他们的伤害吗?即使是科学家兼幻想家,也未必就能把不远的未来想明白。维纳和阿西莫夫可能都不懂计算理论,但畅销人工智能教科书《人工智能:一种现代方法》的作者罗素(stuart russell)也提出了所谓“价值观对齐”问题(value-alignment problem),即把机器的价值观对齐到人的价值观,这是个计算理论问题还是个道德问题?
图灵在1950年那篇被广为引用的文章《计算机与智能》的结尾处说:我们只能看到当下,但看见的这些就够我们忙活的了。这真是实干型科学家和揣度型历史学家(speculative historian)的区别。
本文节选自《人工智能简史(第2版)》,《人工智能简史》全面讲述了人工智能的发展史,几乎覆盖人工智能学科的所有领域,以宏阔的视野和生动的语言,对人工智能进行了全面回顾和深度点评。
“
作者简介
尼克,乌镇智库理事长,曾任职哈佛和惠普,早年师从人工智能大师,后来创业投资,往返于大陆和硅谷。无论忙闲不忘读书写字,作品多发表于《上海书评》和《中国计算机学会通讯》,并有著作《unix system v内核剖析》和《哲学评书》。
”