人工智能之梦(ZT)
本帖最后由 cashiba 于 2018-1-17 19:57 编辑制造出能够像人类一样思考的机器是科学家们最伟大的梦想之一。用智慧的大脑解读智慧必将成为科学发展的终极。而验证这种解读的最有效手段,莫过于再造一个智慧大脑——人工智能(Artificial Intelligence,AI)。
人们对人工智能的了解恐怕主要来自于好莱坞的科幻片。这些荧幕上的机器(见图1)要么杀人如麻,如《终结者》《黑客帝国》;要么小巧可爱,如《机器人瓦利》;要么多愁善感,如《人工智能》;还有一些则大音希声、大象无形,如《黑客帝国》中的Matrix网络,以及《超验骇客》《超体》。所有这些荧幕上的人工智能都具备一些共同特征:异常强大、能力非凡。
http://www.ituring.com.cn/figures/2017/manong-32/015.png
图1 电影中的人工智能
然而,现实中的人工智能却与这些荧幕上的机器人相差甚远,但它们的确已经在我们身边。搜索引擎、邮件过滤器、智能语音助手Siri、二维码扫描器、游戏中的NPC(非玩家扮演角色)都是近60年来人工智能技术实用化的产物。这些人工智能都是一个个单一功能的“裸”程序,没有坚硬的、灵活的躯壳,更没有想象中那么善解人意,甚至不是一个完整的个体。为什么想象与现实存在那么大的差距?这是因为,真正的人工智能的探索之路充满了波折与不确定。
历史上,研究人工智能就像是在坐过山车,忽上忽下。梦想的肥皂泡一次次被冰冷的科学事实戳破,科学家们不得不一次次重新回到梦的起点。作为一个独立的学科,人工智能的发展非常奇葩。它不像其他学科那样从分散走向统一,而是从1956年创立以来就不断地分裂,形成了一系列大大小小的子领域。也许人工智能注定就是大杂烩,也许统一的时刻还未到来。然而,人们对人工智能的梦想却是永远不会磨灭的。
本文将按历史的顺序介绍人工智能的发展。从早期的哥德尔、图灵等人的研究到“人工智能”一词的提出,再到后期的人工智能三大学派:符号学派、连接学派和行为学派,以及近年来的新进展:贝叶斯网络、深度学习、通用人工智能;最后我们将对未来的人工智能进行展望。
梦的开始(1900—1956)
http://www.ituring.com.cn/figures/2017/manong-32/016.png
大卫·希尔伯特(1862—1943)
说来奇怪,人工智能之梦开始于一小撮20世纪初期的数学家。这些人真正做到了用方程推动整个世界。
历史的车轮倒回到1900年,世纪之交的数学家大会在巴黎如期召开,德高望重的老数学家大卫·希尔伯特(David Hilbert)庄严地向全世界数学家们宣布了23个未解决的难题。这23道难题道道经典,而其中的第二问题和第十问题则与人工智能密切相关,并最终促成了计算机的发明。
希尔伯特的第二问题来源于一个大胆的想法——运用公理化的方法统一整个数学,并运用严格的数学推理证明数学自身的正确性。这个野心被后人称为希尔伯特纲领,虽然他自己没能证明,但却把这个任务交给了后来的年轻人,这就是希尔伯特第二问题:证明数学系统中应同时具备一致性(数学真理不存在矛盾)和完备性(任意真理都可以被描述为数学定理)。
http://www.ituring.com.cn/figures/2017/manong-32/017.png
库尔特·哥德尔(1906—1978)
希尔伯特的勃勃野心无疑激励着每一位年轻的数学家,其中就包括一个来自捷克的年轻人:库尔特·哥德尔(Kurt Godel)。他起初是希尔伯特的忠实粉丝,并致力于攻克第二问题。然而,他很快发现,自己之前的努力都是徒劳的,因为希尔伯特第二问题的断言根本就是错的:任何足够强大的数学公理系统都存在着瑕疵:一致性和完备性不能同时具备。很快,哥德尔倒戈了,他背叛了希尔伯特,但却推动了整个数学的发展,于1931年提出了被美国《时代周刊》评选为20世纪最有影响力的数学定理:哥德尔不完备性定理。
尽管早在1931年,人工智能学科还没有建立,计算机也没有发明,但是哥德尔定理似乎已经为人工智能提出了警告。这是因为如果我们把人工智能也看作一个机械化运作的数学公理系统,那么根据哥德尔定理,必然存在着某种人类可以构造、但是机器无法求解的人工智能的“软肋”。这就好像我们无法揪着自己的脑袋脱离地球,数学无法证明数学本身的正确性,人工智能也无法仅凭自身解决所有问题。所以,存在着人类可以求解但是机器却不能解的问题,人工智能不可能超过人类。
但问题并没有这么简单,上述命题成立的一个前提是人与机器不同,不是一个机械的公理化系统。然而,这个前提是否成立迄今为止我们并不知道。
http://www.ituring.com.cn/figures/2017/manong-32/018.png
阿兰·图灵(1912—1954)
另外一个与哥德尔年龄相仿的年轻人被希尔伯特的第十问题深深地吸引了,并决定为此奉献一生。这个人就是阿兰·图灵(Alan Turing)。
希尔伯特第十问题的表述是:“是否存在着判定任意一个丢番图方程有解的机械化运算过程。”这句话的前半句比较晦涩,我们可以先忽略,因为后半句是重点,“机械化运算过程”用今天的话说就是算法。然而,当年,算法这个概念还是相当模糊的。于是,图灵设想出了一个机器——图灵机,它是计算机的理论原型,圆满地刻画出了机械化运算过程的含义,并最终为计算机的发明铺平了道路。
图灵机模型(见图2)形象地模拟了人类进行计算的过程。假如我们希望计算任意两个3位数的加法:139 + 919。我们需要一张足够大的草稿纸以及一支可以在纸上不停地涂涂写写的笔。之后,我们需要从个位到百位一位一位地按照10以内的加法规则完成加法。我们还需要考虑进位,例如9 + 9 = 18,这个1就要加在十位上。我们是通过在草稿纸上记下适当的标记来完成这种进位记忆的。最后,我们把计算的结果输出到了纸上。
http://www.ituring.com.cn/figures/2017/manong-32/019.png
图2 图灵机模型
图灵机把所有这些过程都模型化了:草稿纸被模型化为一条无限长的纸带,笔被模型化为一个读写头,固定的10以内的运算法则模型化为输入给读写头的程序,对于进位的记忆则被模型化为读写头的内部状态。于是,设定好纸带上的初始信息,以及读写头的当前内部状态和程序规则,图灵机就可以运行起来了。它在每一时刻读入一格纸带的信息,并根据当前的内部状态,查找相应的程序,从而给出下一时刻的内部状态并输出信息到纸带上。
图灵机模型一经提出就得到了科学家们的认可,这无疑给了图灵莫大的鼓励。他开始鼓起勇气,展开想象的翅膀,进一步思考图灵机运算能力的极限。1940年,图灵开始认真地思考机器是否能够具备类人的智能。他马上意识到这个问题的要点其实并不在于如何打造强大的机器,而在于我们人类如何看待智能,即依据什么标准评价一台机器是否具备智能。于是,图灵在1950年发表了《机器能思考吗?》一文,提出了这样一个标准:如果一台机器通过了“图灵测试”,则我们必须接受这台机器具有智能。那么,图灵测试究竟是怎样一种测试呢?
http://www.ituring.com.cn/figures/2017/manong-32/020.png
图3 图灵测试示意图
如图3所示,假设有两间密闭的屋子,其中一间屋子里面关了一个人,另一间屋子里面关了一台计算机:进行图灵测试的人工智能程序。然后,屋子外面有一个人作为测试者,测试者只能通过一根导线与屋子里面的人或计算机交流——与它们进行联网聊天。假如测试者在有限的时间内无法判断出这两间屋子里面哪一个关的是人,哪一个是计算机,那么我们就称屋子里面的人工智能程序通过了图灵测试,并具备了智能。事实上,图灵当年在《机器能思考吗?》一文中设立的标准相当宽泛:只要有30%的人类测试者在5分钟内无法分辨出被测试对象,就可以认为程序通过了图灵测试。
2014年6月12日,一个名为“尤金”(Eugene Goostman)的聊天程序(见图4)成功地在5分钟内蒙骗了30%的人类测试者,从而达到了图灵当年提出来的标准。很多人认为,这款程序具有划时代的意义,它是自图灵测试提出64年后第一个通过图灵测试的程序。但是,很快就有人提出这只不过是一个噱头,该程序并没有宣传的那么厉害。例如,谷歌公司的工程总监、未来学家雷·库兹韦尔(Ray Kurzweil)就表示,这个聊天机器人号称只有13岁,并使用第二语言来回答问题,这成为了该程序重大缺陷的借口。另外,测试者只有5分钟与之展开互动,这大大增加了他们在短期内被“欺骗”的概率。
http://www.ituring.com.cn/figures/2017/manong-32/021.png
图4 “尤金”聊天程序
由此可见,图灵将智能等同于符号运算的智能表现,而忽略了实现这种符号智能表现的机器内涵。这样做的好处是可以将所谓的智能本质这一问题绕过去,它的代价是人工智能研制者们会把注意力集中在如何让程序欺骗人类测试者上,甚至可以不择手段。所以,对于将图灵测试作为评判机器具备智能的唯一标准,很多人开始质疑。因为人类智能还包括诸如对复杂形式的判断、创造性地解决问题的方法等,而这些特质都无法在图灵测试中体现出来。
总而言之,图灵的研究无疑大大推动了人工智能的进展。然而,图灵本人却于1954年死于一个被剧毒氰化物注射过的苹果,享年仅仅42岁。传闻他是一名同性恋,这在当时的英国是非法的。于是英国政府强行给他注射一种药物抑制他的同性恋倾向,这导致他最终在治疗期间痛苦万分地自杀了。据说,苹果公司为了纪念这位计算机科学之父,特意用那个被图灵咬掉一口的苹果作为公司的logo。1966年,美国计算机协会设立了以图灵命名的图灵奖,以专门奖励那些对计算机事业作出重要贡献的人,这相当于计算机领域的诺贝尔奖。
http://www.ituring.com.cn/figures/2017/manong-32/022.png
约翰·冯·诺依曼(1903—1957)
就在哥德尔绞尽脑汁捉摸希尔伯特第二问题的时候,另外一个来自匈牙利布达佩斯的天才少年也在思考同样的问题,他就是大名鼎鼎的约翰·冯·诺依曼(John von Neumann)。
然而,冯·诺依曼远没有哥德尔走运。到了1931年,冯·诺依曼即将在希尔伯特第二问题上获得突破,却突然得知哥德尔已经发表了哥德尔定理,先他一步。于是,冯·诺依曼一气之下开始转行研究起了量子力学。就在他的量子力学研究即将结出硕果之际,另外一位天才物理学家保罗·狄拉克(Paul Dirac)又一次抢了他的风头,出版了《量子力学原理》,并一举成名。这比冯·诺依曼的《量子力学的数学基础》整整早了两年。
受到两次打击之后,冯·诺依曼开始把部分注意力从基础数学转向了工程应用领域,终于大获成功。1945年,凭借出众的才华,冯·诺依曼在火车上完成了早期的计算机EDVAC的设计,并提出了我们现在熟知的“冯·诺依曼体系结构”。
冯·诺依曼的计算机与图灵机是一脉相承的,但最大的不同就在于,冯·诺依曼的读写头不再需要一格一格地读写纸带,而是根据指定的地址,随机地跳到相应的位置完成读写。这也就是我们今天所说的随机访问存储器(Random Access Memory,RAM)的前身。
冯·诺依曼的计算机终于使得数学家们的研究结出了硕果,也最终推动着人类历史进入了信息时代,使得人工智能之梦成为了可能。
http://www.ituring.com.cn/figures/2017/manong-32/023.png
诺伯特·维纳(1894—1964)
我们要介绍的最后一位数学家是美国的天才神童诺伯特·维纳(Norbert Wiener)。据说维纳三岁的时候就开始在父亲的影响下读天文学和生物学的图书。七岁的时候他所读的物理学和生物学的知识范围已经超出了他父亲。他年纪轻轻就掌握了拉丁语、希腊语、德语和英语,并且涉猎人类科学的各个领域。后来,他留学欧洲,曾先后拜师于罗素、希尔伯特、哈代等哲学、数学大师。维纳在他70年的科学生涯中,先后涉足数学、物理学、工程学和生物学,共发表240多篇论文,著作14本。
然而,与我们的主题最相关的,则要数维纳于1948年提出来的新兴学科“控制论”(Cybernetics)了。“Cybernetics”一词源于希腊语的“掌舵人”。在控制论中,维纳深入探讨了机器与人的统一性——人或机器都是通过反馈完成某种目的的实现,因此他揭示了用机器模拟人的可能性,这为人工智能的提出奠定了重要基础。维纳也是最早注意到心理学、脑科学和工程学应相互交叉的人之一,这促使了后来认知科学的发展。
这几位数学大师不满足于“躲进小楼成一统”,埋头解决一两个超级数学难题。他们的思想大胆地拥抱了斑驳复杂的世界,最终用他们的方程推动了社会的进步,开启了人工智能之梦。
梦的延续(1956—1980)
在数学大师们铺平了理论道路,工程师们踏平了技术坎坷,计算机已呱呱落地的时候,人工智能终于横空出世了。而这一历史时刻的到来却是从一个不起眼的会议开始的。
1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,约翰·麦卡锡(John McCarthy)、马文·闵斯基(Marvin Minsky,人工智能与认知学专家)、克劳德·香农(Claude Shannon,信息论的创始人)、艾伦·纽厄尔(Allen Newell,计算机科学家)、赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家正聚在一起,讨论着一个完全不食人间烟火的主题:用机器来模仿人类学习以及其他方面的智能。
会议足足开了两个月的时间,虽然大家没有达成普遍的共识,但是却为会议讨论的内容起了一个名字:人工智能。因此,1956年也就成为了人工智能元年。
达特茅斯会议之后,人工智能获得了井喷式的发展,好消息接踵而至。机器定理证明——用计算机程序代替人类进行自动推理来证明数学定理——是最先取得重大突破的领域之一。在达特茅斯会议上,纽厄尔和西蒙展示了他们的程序:“逻辑理论家”可以独立证明出《数学原理》第二章的38条定理;而到了1963年,该程序已能证明该章的全部52条定理。1958年,美籍华人王浩在IBM704计算机上以3~5分钟的时间证明了《数学原理》中有关命题演算部分的全部220条定理。而就在这一年,IBM公司还研制出了平面几何的定理证明程序。
1976年,凯尼斯·阿佩尔(Kenneth Appel)和沃夫冈·哈肯(Wolfgang Haken)等人利用人工和计算机混合的方式证明了一个著名的数学猜想:四色猜想(现在称为四色定理)。这个猜想表述起来非常简单易懂:对于任意的地图,我们最少仅用四种颜色就可以染色该地图,并使得任意两个相邻的国家不会重色;然而证明起来却异常烦琐。配合着计算机超强的穷举和计算能力,阿佩尔等人把这个猜想证明了。
另一方面,机器学习领域也获得了实质的突破,在1956年的达特茅斯会议上,阿瑟·萨缪尔(Arthur Samuel)研制了一个跳棋程序,该程序具有自学习功能,可以从比赛中不断总结经验提高棋艺。1959年,该跳棋程序打败了它的设计者萨缪尔本人,过了3年后,该程序已经可以击败美国一个州的跳棋冠军。
1956年,奥利弗·萨尔夫瑞德(Oliver Selfridge)研制出第一个字符识别程序,开辟了模式识别这一新的领域。1957年,纽厄尔和西蒙等开始研究一种不依赖于具体领域的通用问题求解器,他们称之为GPS(General Problem Solver)。1963年,詹姆斯·斯拉格(James Slagle)发表了一个符号积分程序SAINT,输入一个函数的表达式,该程序就能自动输出这个函数的积分表达式。过了4年后,他们研制出了符号积分运算的升级版SIN,SIN的运算已经可以达到专家级水准。
所有这一切来得太快了,胜利冲昏了人工智能科学家们的头脑,他们开始盲目乐观起来。例如,1958年,纽厄尔和西蒙就自信满满地说,不出10年,计算机将会成为世界象棋冠军,证明重要的数学定理,谱出优美的音乐。照这样的速度发展下去,2000年人工智能就真的可以超过人类了。
然而,历史似乎故意要作弄轻狂无知的人工智能科学家们。1965年,机器定理证明领域遇到了瓶颈,计算机推了数十万步也无法证明两个连续函数之和仍是连续函数。萨缪尔的跳棋程序也没那么神气了,它停留在了州冠军的层次,无法进一步战胜世界冠军。
最糟糕的事情发生在机器翻译领域,对于人类自然语言的理解是人工智能中的硬骨头。计算机在自然语言理解与翻译过程中表现得极其差劲,一个最典型的例子就是下面这个著名的英语句子:
The spirit is willing but the flesh is weak.(心有余而力不足。)
当时,人们让机器翻译程序把这句话翻译成俄语,然后再翻译回英语以检验效果,得到的句子竟然是:
The wine is good but the meet is spoiled.(酒是好的,肉变质了。)
这简直是驴唇不对马嘴嘛。怪不得有人挖苦道,美国政府花了2000万美元为机器翻译挖掘了一座坟墓。
总而言之,越来越多的不利证据迫使政府和大学削减了人工智能的项目经费,这使得人工智能进入了寒冷的冬天。来自各方的事实证明,人工智能的发展不可能像人们早期设想的那样一帆风顺,人们必须静下心来冷静思考。
经历了短暂的挫折之后,AI研究者们开始痛定思痛。爱德华·费根鲍姆(Edward A. Feigenbaum)就是新生力量的佼佼者,他举着“知识就是力量”的大旗,很快开辟了新的道路。
http://www.ituring.com.cn/figures/2017/manong-32/024.png
爱德华·费根鲍姆(1936— )
费根鲍姆分析到,传统的人工智能之所以会陷入僵局,就是因为他们过于强调通用求解方法的作用,而忽略了具体的知识。仔细思考我们人类的求解过程就会发现,知识无时无刻不在起着重要作用。因此,人工智能必须引入知识。
于是,在费根鲍姆的带领下,一个新的领域专家系统诞生了。所谓的专家系统就是利用计算机化的知识进行自动推理,从而模仿领域专家解决问题。第一个成功的专家系统DENDRAL于1968年问世,它可以根据质谱仪的数据推知物质的分子结构。在这个系统的影响下,各式各样的专家系统很快陆续涌现,形成了一种软件产业的全新分支:知识产业。1977年,在第五届国际人工智能大会上,费根鲍姆用知识工程概括了这个全新的领域。
在知识工程的刺激下,日本的第五代计算机计划、英国的阿尔维计划、西欧的尤里卡计划、美国的星计划和中国的863计划陆续推出,虽然这些大的科研计划并不都是针对人工智能的,但是AI都作为这些计划的重要组成部分。
然而,好景不长,在专家系统、知识工程获得大量的实践经验之后,弊端开始逐渐显现了出来,这就是知识获取。面对这个全新的棘手问题,新的“费根鲍姆”没有再次出现,人工智能这个学科却发生了重大转变:它逐渐分化成了几大不同的学派。
群龙问鼎(1980—2010)
专家系统、知识工程的运作需要从外界获得大量知识的输入,而这样的输入工作是极其费时费力的,这就是知识获取的瓶颈。于是,在20世纪80年代,机器学习这个原本处于人工智能边缘地区的分支一下子成为了人们关注的焦点。
尽管传统的人工智能研究者也在奋力挣扎,但是人们很快发现,如果采用完全不同的世界观,即让知识通过自下而上的方式涌现,而不是让专家们自上而下地设计出来,那么机器学习的问题其实可以得到很好地解决。这就好比我们教育小孩子,传统人工智能好像填鸭式教学,而新的方法则是启发式教学:让孩子自己来学。
事实上,在人工智能界,很早就有人提出过自下而上的涌现智能的方案,只不过它们从来没有引起大家的注意。一批人认为可以通过模拟大脑的结构(神经网络)来实现,而另一批人则认为可以从那些简单生物体与环境互动的模式中寻找答案。他们分别被称为连接学派和行为学派。与此相对,传统的人工智能则被统称为符号学派。自20世纪80年代开始,到20世纪90年代,这三大学派形成了三足鼎立的局面。
梦醒何方(2010—至今)
就这样,在争论声中,人工智能走进了21世纪的第二个十年,似乎一切都没有改变。但是,几件事情悄悄地发生了,它们重新燃起了人们对于人工智能之梦的渴望。
深度学习
21世纪的第二个十年,如果要评选出最惹人注目的人工智能研究,那么一定要数深度学习(Deep Learning)了。
2011年,谷歌X实验室的研究人员从YouTube视频中抽取出1000万张静态图片,把它喂给“谷歌大脑”——一个采用了所谓深度学习技术的大型神经网络模型,在这些图片中寻找重复出现的模式。三天后,这台超级“大脑”在没有人类的帮助下,居然自己从这些图片中发现了“猫”。
2012年11月,微软在中国的一次活动中,展示了他们新研制的一个全自动的同声翻译系统——采用了深度学习技术的计算系统。演讲者用英文演讲,这台机器能实时地完成语音识别、机器翻译和中文的语音合成,也就是利用深度学习完成了同声传译。
2013年1月,百度公司成立了百度研究院,其中,深度学习研究所是该研究院旗下的第一个研究所。
……
这些全球顶尖的计算机、互联网公司都不约而同地对深度学习表现出了极大的兴趣。那么究竟什么是深度学习呢?
事实上,深度学习仍然是一种神经网络模型,只不过这种神经网络具备了更多层次的隐含层节点,同时配备了更先进的学习技术,如图5所示。
http://www.ituring.com.cn/figures/2017/manong-32/025.png
图5 一个深度神经网络模型
然而,当我们将超大规模的训练数据喂给深度学习模型的时候,这些具备深层次结构的神经网络仿佛摇身一变,成为了拥有感知和学习能力的大脑,表现出了远远好于传统神经网络的学习和泛化的能力。
当我们追溯历史,深度学习神经网络其实早在20世纪80年代就出现了。然而,当时的深度网络并没有表现出任何超凡能力。这是因为,当时的数据资源远没有现在丰富,而深度学习网络恰恰需要大量的数据以提高它的训练实例数量。
到了2000年,当大多数科学家已经对深度学习失去兴趣的时候,又是那个杰夫·辛顿带领他的学生继续在这个冷门的领域里坚持耕耘。起初他们的研究并不顺利,但他们坚信他们的算法必将给世界带来惊奇。
惊奇终于出现了,到了2009年,辛顿小组获得了意外的成功。他们的深度学习神经网络在语音识别应用中取得了重大的突破,转换精度已经突破了世界纪录,错误率比以前减少了25%。可以说,辛顿小组的研究让语音识别领域缩短了至少10年的时间。就这样,他们的突破吸引了各大公司的注意。苹果公司甚至把他们的研究成果应用到了Siri语音识别系统上,使得iPhone 5全球热卖。从此,深度学习的流行便一发不可收拾。
那么,为什么把网络的深度提高,配合上大数据的训练就能使得网络性能有如此大的改善呢?答案是,因为人脑恰恰就是这样一种多层次的深度神经网络。例如,已有的证据表明,人脑处理视觉信息就是经过多层加工完成的。所以,深度学习实际上只不过是对大脑的一种模拟。
模式识别问题长久以来是人工智能发展的一个主要瓶颈。然而,深度学习技术似乎已经突破了这个瓶颈。有人甚至认为,深度学习神经网络已经可以达到2岁小孩的识别能力。有理由相信,深度学习会将人工智能引入全新的发展局面。
模拟大脑
我们已经看到,深度学习模型成功的秘诀之一就在于它模仿了人类大脑的深层体系结构。那么,我们为什么不直接模拟人类的大脑呢?事实上,科学家们已经行动起来了。
例如,德国海德尔堡大学的FACETS(Fast Analog Computing with Emergent Transient States)计划就是一个利用硬件来模拟大脑部分功能的项目。他们采用数以千计的芯片,创造出一个包含10亿神经元和1013突触的回路的人工脑(其复杂程度相当于人类大脑的十分之一)。与此对应,由瑞士洛桑理工学院和IBM公司联合发起的蓝色大脑计划则是通过软件来模拟人脑的实践。他们采用逆向工程方法,计划2015年开发出一个虚拟的大脑。
然而,这类研究计划也有很大的局限性。其中最大的问题就在于:迄今为止,我们对大脑的结构以及动力学的认识还相当初级,尤其是神经元活动与生物体行为之间的关系还远远没有建立。例如,尽管科学家早在30年前就已经弄清楚了秀丽隐杆线虫(Caenorhabditis elegans)302个神经元之间的连接方式,但到现在仍然不清楚这种低等生物的生存行为(例如进食和交配)是如何产生的。尽管科学家已经做过诸多尝试,比如连接组学(Connectomics),也就是全面监测神经元之间的联系(即突触)的学问,但是,正如线虫研究一样,这幅图谱仅仅是个开始,它还不足以解释不断变化的电信号是如何产生特定认知过程的。
于是,为了进一步深入了解大脑的运行机制,一些“大科学”项目先后启动。2013年,美国奥巴马政府宣布了“脑计划”(Brain Research through Advancing Innovative Neurotechnologies,简称BRAIN)的启动。该计划在2014年的启动资金为1亿多美元,致力于开发能记录大群神经元甚至是整片脑区电活动的新技术。
无独有偶,欧盟也发起了“人类大脑计划”(The Human Brain Project),这一计划为期10年,将耗资16亿美元,致力于构建能真正模拟人脑的超级计算机。除此之外,中国、日本、以色列也都有雄心勃勃的脑科学研究计划出炉。这似乎让人们想到了第二次世界大战后的情景,各国争相发展“大科学项目”:核武器、太空探索、计算机等。脑科学的时代已经来临。
http://www.ituring.com.cn/figures/2017/manong-32/026.png
路易斯·冯·安(1979— )
“人工”人工智能
2007年,一位谷歌的实习生路易斯·冯·安(Luis von Ahn)开发了一款有趣的程序“ReCapture”,却无意间开创了一个新的人工智能研究方向:人类计算。
ReCapture的初衷很简单,它希望利用人类高超的模式识别能力,自动帮助谷歌公司完成大量扫描图书的文字识别任务。但是,如果要雇用人力来完成这个任务则需要花费一大笔开销。于是,冯·安想到,每天都有大量的用户在输入验证码来向机器证明自己是人而不是机器,而输入验证码事实上就是在完成文本识别问题。于是,一方面是有大量的扫描的图书中难以识别的文字需要人来识别;另一方面是由计算机生成一些扭曲的图片让大量的用户做识别以表明自己的身份。那么,为什么不把两个方面结合在一起呢?这就是ReCapture的创意(如图6所示),冯·安聪明地让用户在输入识别码的时候悄悄帮助谷歌完成了文字识别工作!
http://www.ituring.com.cn/figures/2017/manong-32/027.png
图6 人类计算系统ReCapture
这一成功的应用实际上是借助人力完成了传统的人工智能问题,冯·安把它叫作人类计算(Human Computation),我们则把它形象地称为“人工”人工智能。除了ReCapture以外,冯·安还开发了很多类似的程序或系统,例如ESP游戏是让用户通过竞争的方式为图片贴标签,从而完成“人工”人工分类图片;Duolingo系统则是让用户在学习外语的同时,顺便翻译一下互联网,这是“人工”机器翻译。
也许,这样巧妙的人机结合才是人工智能发展的新方向之一。因为一个完全脱离人类的人工智能程序对于我们没有任何独立存在的意义,所以人工智能必然会面临人机交互的问题。而随着互联网的兴起,人和计算机交互的方式会更加便捷而多样化。因此,这为传统的人工智能问题提供了全新的解决途径。
然而,读者也许会质疑,这种掺合了人类智能的系统还能叫作纯粹的人工智能吗?这种质疑事实上有一个隐含的前提,就是人工智能是一个独立运作的系统,它与人类环境应相互隔离。但当我们考虑人类智能的时候就会发现,任何智能系统都不能与环境绝对隔离,它只有在开放的环境下才能表现出智能。同样的道理,人工智能也必须向人类开放,于是引入人的作用也变成了一种很自然的事情。
结语
本文介绍了人工智能近60年所走过的曲折道路。也许,读者所期待的内容,诸如奇点临近、超级智能机器人、人与机器的共生演化等激动人心的内容并没有出现,但是,我能保证的,是一段真实的历史,并力图做到准确无误。
尽管人工智能这条道路蜿蜒曲折,荆棘密布,但至少它在发展并不断壮大。最重要的是,人们对于人工智能的梦想永远没有破灭过。也许人工智能之梦将无法在你我的有生之年实现,也许人工智能之梦始终无法逾越哥德尔定理那个硕大无朋的“如来佛手掌”,但是,人工智能之梦将永远驱动着我们不断前行,挑战极限。 未来总是很美好啊,很神奇,很期待…… 嗯,我还是先吧AU3学精细吧。。
页:
[1]