1
人工智能的未来
1.9.9 创建人工大脑


创建人工大脑

我们的大脑拥有数十亿个神经元,但什么是神经元呢?简单地说就是细胞。如果神经元之间没有建立联结机制,大脑就没有知识。神经元之间的联结就决定了我们可以知道什么,我们到底是谁。

蒂姆·伯纳斯·李,万维网创始人

现在让我们用上面讨论过的知识来构建人工大脑。首先,我们需要构建一个符合某些必要条件的模式识别器。接着,我们会复制识别器,因为我们拥有记忆以及计算源。每个识别器计算出模式被识别出的概率。这样,每个识别器考虑了观察到的每个输入的数值(某种连续变量),然后将这些数据跟与每个输入对应的习得数据和数值变化程度参数进行比较。如果计算出的概率超过了临界值,识别器就会激活模拟轴突。我们用遗传算法优化的参数就包括这个临界值以及控制计算模式概率的参数。识别模式并不需要每个输入都有效,因此,自联想识别就有了空间(某个模式只要展现出一部分,我们就可以识别整个模式)。我们同样也允许存在抑制信号,即暗示模式根本不可能的信号。

模式被识别出来就会向该模式识别器的模拟轴突发送有效信号,此模拟轴突反过来又会与下一个更高层级的概念层级的一个或多个模式识别器建立联结。下一个更高层级的概念级别联结的所有模式识别器就会将这种模式当成输入。如果大部分模式被识别,每个模式识别器还会向低概念层级传递信号——这表明剩余的模式都是预计的。每个模式识别器都有一条或多条预设的信号输入通道。当预计信号以这种方式被接收时,模式识别器的识别临界值就降低了,也就更容易识别。

模式识别器负责将自己与位于概念层级结构上、下层级的模式识别器联结起来。需要注意的是,所有软件实现的联结都是通过虚拟联结而并非实际线路实现的(类似于网络联结,本质上是记忆指针)。实际上,这类系统比生物大脑系统更为灵活。人脑中出现新模式时,就需要对应生物模式识别器,还需要实际的轴突枝晶链接与别的模式识别器建立联结。通常人类的大脑会选取一个跟所需联结十分类似的联结,并在此基础上增加所需的轴突和树突,最后形成完整的联结。

哺乳动物的大脑还掌握另一种技术,即先建立很多的可能性联结,然后再剔除那些无用的神经联结。如果一个皮质模式识别器已经承载了某种旧模式,而生物新皮质又为这个模式识别器重新分配了最新信息,那么这个皮质模式识别器就需要重新构造自身的联结。这些步骤在软件中很容易实现。我们只需要为这个新的模式识别器分配新的记忆存储单元,并基于新的记忆存储单元构造新的联结。如果数字新皮质想要将皮质记忆资源从一个模式系列转到另外一个模式系列,它只需将旧模式识别器纳入记忆,再重新分配记忆资源即可。这种垃圾回收和记忆再分配是很多软件系统构建的显著特征。在数码大脑中,在我们从活跃的新皮质剔除旧记忆之前,数码电脑首先会对旧的记忆进行复制,而这是生物大脑无法做到的。

很多数学技术可用于构建这种自组织层级模式识别。基于多种考虑因素,我最终选择了隐马尔可夫层级模型。从我将其应用在最初的语音识别和20世纪80年代的自然语言系统中开始,我对这一模型已有数十年的研究。从整个领域来看,隐马尔可夫模型在处理模式识别问题时比其他方法的应用范围更加广泛,而且它还被用到理解自然语言的研究当中。许多NLU系统用到的技术在数学意义上与隐马尔可夫层级模型非常类似。

需要指出的是,并非所有的隐马尔可夫模型都具有层级性,其中一些包含的层级较少,例如只包含3层,从发音到音素再到词汇。为了模拟大脑,我们则需要根据要求建立许多新的层级结构。而且,大部分隐马尔可夫模型并不能完全自组织。尽管有一些联结的重要性为零,这些系统却有效地减少了初始联结的数量,不过,系统仍有一些固定的联结。20世纪80年代到90年代开发的系统已经能够自动剔除某个固定等级之下的联结,它们也可以建立新的联结,从而更好地对数据样本进行建模,学习新知识。很关键的一点就是允许系统根据自己学到的模式灵活地调整自身的拓扑。我们也可以利用数学上的线性规划为新的模式识别器指定最优联结。

我们的数字大脑还允许一种模式反复出现,尤其是那些经常出现的模式,这就为我们识别常用模式或是表现形式不同的同一种模式提供了坚实的基础。但我们还需要设定冗余界限,以保证系统对常用低级别模式的储存不会占用太多空间。

冗余规则、识别临界值和对这一模式是预计的临界值设定的影响,是影响自组织系统性能的重要参数的几个例子。最开始的时候我是凭直觉设定这些参数,之后再用遗传算法对其进行优化。无论是生物大脑还是软件模拟的大脑,大脑的学习能力都是一个值得重视的问题。在前面我已经提到,一个层级模式识别系统(不管是数字的还是生物的)可以同时学习两个优选的同一级别的层级结构。为了使系统完全自动学习,我首先会采用之前已经测试过的层级网络,该网络在识别人类语言、机打信件和自然语言结构任务时,学习能力已经得到了训练。不过,虽然这个系统可以识别自然语言写成的文件,但一次只能掌握一个层级上的信息。系统学到的上级知识会为下级知识的学习奠定基础。系统可以反复学习同一个文件,每次阅读都会学习到新知识,这跟人们的学习过程有些类似——人们也是在对同一资料的反复阅读中加深对它的理解。网络上有数十亿页的信息,仅英文版的维基百科就有400万篇文章。

我还会提供一个批判性思维模块,这个模块可以对现存所有的模式进行持续的后台扫描,从而审核该模式与该软件新皮质内其他模式(思想)的兼容性。生物大脑没有这样的模块,所以人们能够平等地对待所有的片段性信息。在识别松散的信息时,数字模块会试图在它自己的皮质结构和所有可用的信息中寻找解决方案。在这里,解决方案可能仅指判断这松散信息中的某一部分不正确(如果与该信息相对立的信息在数量上占优势)。不仅如此,该模块会在更高概念层级上,为解决这种信息的矛盾性提供方法。系统会将解决方案视为一个新的模式,并与引发这个搜索的问题建立联结。该批判性思维模块会一直在后台运行。如果人类大脑也有这样的模块,那该多好。

同样,我也会提供一个识别不同领域内开放性问题的模块,作为另外一个连续运行的后台程序,它会在不同的知识领域内寻求问题的解决方案。我前面已经指出,新皮质内的知识由深层级嵌套网状模式组成,因此具有隐喻性特征。我们可以用一种模式为另外一个毫不相关领域的问题提供解决方法。

我们回顾一下第4章提到的隐喻的例子,用某种气体分子杂乱无章的运动来隐喻某种进化过程中杂乱无章的变化。虽然气体分子的运动没有明显的方向,但是聚集在高脚杯内的分子如果有了足够的时间,最终会跑出高脚杯。这也解决了智力进化过程中的一个重要问题。就像气体分子一样,具有进化意义的变化并没有明确的目的。但是我们能看到这种变化正朝着更复杂和更高级的智力方向发展,最终达到进化的最高端,即新皮质具备层级思考的能力。因此我们能够弄清楚某个领域内(生物进化)没有目的和努力方向的进程是怎样完成一个精确目标的。以此为基础,我们也就可以了解其他领域内相似的进程,例如热力学领域。

我之前已经提到过查尔斯·赖尔的论断——经过长时间的流水侵蚀,岩石会被侵蚀为山谷,这促使达尔文作出了自己的论断,即经过不断的变化,物种的生物特征也许会发生天翻地覆的变化。这种隐喻性的搜索又是另一种持续运转的后台程序。

为了提供结构思维的对等体,我们需要提供能同时处理很多歌曲列表的方法。列表可能就是对问题解决方法必须满足的限制条件的说明。

解决问题的每一步都可能会对现有的思维层级结构进行反复搜索,或者说对现有文献进行反复搜索。人脑一次只能同时处理4个列表(在没有计算机辅助时),但人造新皮质却没有这样的限制。

我们还要借助计算机擅长的智能来完善我们的人造大脑,例如计算机可以准确掌握大量知识,快速、高效地运用已知算法。WolframAlpha整合了许多已知的科学算法,并将它们应用于处理已经仔细整理过的数据。如果沃尔弗拉姆能够找到降低该系统错误率的方法,这个系统仍然有巨大的发展应用空间。

最后,我们的新大脑还需要拥有一个包含很多小目标的大目标。对生物大脑而言,我们继承了由旧脑快乐和恐怖中心设立的目标。为了促进物种的繁衍生息,这些早期目标在生物进化过程中早已被设定,但是大脑新皮质的出现使得我们可以超越早期目标。沃森就是为《危险边缘》这个游戏而生的。另外一个目标就是通过图灵测试。为了达到目标,数码大脑需要像人类那样,阐述自己的故事,从而成功地假扮成生物人。数码大脑有时还要装聋作哑,因为任何移植沃森知识的系统很快就会露出马脚,让人发现其不是生物人。

更为有趣的是,我们可以赋予新大脑更具野心的目标,即美化世界。当然,这个目标会引发一系列的思考:为谁美化?在哪一方面美化?为人类,还是为所有有意识的生物?评价有意识的标准又是什么?

人工大脑在改变世界进程中的地位越来越重要。毫无疑问,与未进化的生物大脑相比,人工大脑在改变世界的进程中发挥了更大的作用。不过,我们还需要思考人工大脑的道德意义。我们可以从宗教传统中的黄金法则开始讨论这个问题。