你当前所在位置:
芯片:向大脑进化
【来源】:翌芯电子    【作者】:互联网    【发表日期】:2014-09-02

来源:环球科学

 

 

 

1982年时,夸贝纳·博亨(Kwabena Boahen)有了第一台电脑,那时他还只是个生活在加纳首都阿克拉的十几岁少年。“那真的是一台非常酷的设备,”他回忆道。但当博亨弄清楚电脑内部的运作机制时,他反倒没有感觉特别震撼。“搞清楚了中央处理器是如何不断地来回传输数据后,我心想,‘天呐!电脑需要一直疯狂的工作’。”他本能地感觉到,电脑需要在设计中多一些“非洲”特色的设计:分布更加广范,多一些流动性,少一些严格限定。

如今,作为美国斯坦福大学的一名生物工程师,博亨和其他一些研究人员组成了一个小团队,正在试图通过模仿大脑,创造出理想中的这种计算机运行模式。

大脑运行的节能效果显著,并且其运算能力足以挑战世界上最大的超级计算机,尽管它依赖的组件并不完美:神经元非常缓慢、多变,并且很混乱。在一个比鞋盒还小的区域内,大脑能完成理解语言、抽象推理、控制运动甚至更多任务,功耗却比家用灯泡还小,并且没有任何类似于中央处理器的微小处理器。

为了使硅芯片也能像大脑一样,研究人员正在构建非数字化的芯片系统,使其尽可能像真正的神经元网络一样发挥作用。几年前,博亨设计了一个叫做“神经网格”(Neurogrid)的装置,用它来模拟100万个神经元的活动,模拟的数量,几乎和蜜蜂大脑里的神经元一样多。到今天,“神经形态技术”(neuromorphic technology)经过四分之一个世纪的发展,距离实际应用终于不远了。该技术有望用于任何低功耗和小体积的设备上,从智能手机、机器人到人造眼睛和耳朵。过去5年里,这样的应用前景吸引了众多的研究者投身于该领域,美国和欧洲的机构已为此投入数亿美元的研究经费。

瑞士神经信息学研究所(Institute of NeuroinformaticsINI)的贾科莫·因迪韦里(Giacomo Indiveri)认为,神经形态设备也为神经科学家提供了强大的研究工具。在真实的物理系统中,通过观察神经模型具备或者缺失了哪些功能,“科学家就能了解大脑结构为何会是这样”。

博亨称,神经形态解决方案应该会有助于突破摩尔定律的限制。长期以来,每隔两年左右,计算机芯片制造商就需要在给定的空间内,增加一倍数量的晶体管。对芯片空间的利用已经趋向于极致,很快,硅芯片上的电路就会因为太小、太紧密,无法传输“纯净”的信号:电子会从各种元件中“泄漏”,致使硅芯片和神经元一样混乱。一些研究人员希望,通过使用软件补丁的方式来解决这个问题,例如借用类似于统计学上的误差修正这样的技术,来使互联网平稳运转。但最终,博亨说,最有效的解决方案还是存在于我们的大脑中——一个在数百万年前就已经出现的东西。

 

硅细胞

神经形态(neuromorphic)这一观点是在20世纪80年代,由加州理工学院的卡弗·米德(Carver Mead)提出。在微芯片设计方面,米德堪称先驱。他创造了“神经形态”这一术语,并且是第一个强调大脑在节能方面具有巨大优势的学者。

米德通过“亚阈值”(sub-threshold)的硅来模仿大脑的低功耗处理过程。在特别小的电压下,正常芯片无法将比特从“0”改变为“1”,但亚阈值硅仍然有微小的、不规则的电子流通过晶体管,这种自发电流的涨落,其大小和可变性,与神经回路中流动的离子所形成电子流非常相似。米德推断,通过微观电容器、电阻器和其他组件来控制这些电流,该装置也许能形成微小的电路,并且会展示出和真实神经元相同的电学性能。芯片可以连接成分散网格,在各组件间产生通信线路,而不用通过中央处理器,这种工作方式与大脑中真实的神经回路非常相似。

20世纪90年代,米德和同事发现,构建硅神经元网络是有可能实现的(见“来自生物学的灵感”)。该装置通过结点(junction)接收外部电流输入信号,结点的作用类似于真实神经系统中的突触(synapse)——神经脉冲通过突触,从一个神经元传到另一个神经元。和真正的神经元相似,硅神经元允许传入的信号在电路的内部积蓄电压。当电压达到一个特定的阈值,硅神经元就会“放电”,产生一系列“电压尖脉冲”(voltage spike,即瞬间出现的电压峰值),这些“电压尖脉冲”会沿着一条导线传播,这条导线的作用类似神经元的轴突(axon,神经信号会沿着轴突传播)。尽管这些尖脉冲是“数字化”的,只能处于开或关这两种状态,但硅神经元却像真正的神经元一样,是以非数字化的形式运行的,因此硅神经元的电流和电压并不限于几个不连续的数值,这与传统芯片完全不同。

硅神经元的表现,反映了大脑节能的一个关键因素:与真正的大脑一样,硅神经元在“放电”之前,只是简单地整合输入信号,这只需要很少的能量。而在传统计算机中,无论芯片是否进行运算,都需要持续输入能量,来维持内部时钟运行。

米德的研究小组还研究了其他神经回路——最引人瞩目的是模拟眼睛视网膜的硅芯片。这种设备用一个探测器阵列(50×50)来捕获光线。当探测器的活动显示在电脑屏幕上时,这些“硅细胞”对光、阴影和运动的反应,与视网膜上的神经元大致相同。和大脑一样,这种设备只会传递有意义的信息,从而节省能量:只有光线强度发生变化时,视网膜中的大多数细胞才会有反应。这种工作模式的好处在于,它会着重突出运动物体的边缘轮廓,从而尽量减少需要传输和处理的数据。

 

应对挑战

博亨于1990年加入米德的实验室。在最初的时期,研究人员都忙于研究单芯片设备,例如硅视网膜。不过到20世纪90年代末,“我们希望构建一个‘大脑’,这需要大规模的芯片间信息传输。”这是一个巨大的挑战:芯片间通信的标准编码算法都是专门为精确协调数字信号而设计的,无法应用于神经形态系统中随机性更强的尖峰脉冲信号。21世纪初,博亨和其他研究人员发明了在这种混乱系统下运行的电路和算法,为大规模神经形态系统的一系列发展开辟了道路。

在最初的一系列应用中,有一项是大型模拟器,它能为神经科学家提供一个简单的方法,来研究大脑的工作模式。例如,20069月,博亨发起了“神经网格”项目,希望模拟上百万个神经元的活动。虽然只是人脑860亿神经元中的一小部分,但足以模拟几个内部联系非常密集的神经元群,这些神经元群被认为是人类大脑皮层中计算单元的组成部分。博亨说,神经科学家可以通过编码神经网格,来构建大脑皮层的任何模型。然后,他们会看到,大脑模型的运行速度几乎与大脑相同——这比传统的数字模拟方式快成百上千倍。研究人员已用它来测试神经功能的一些理论模型,比如工作记忆、决策能力和视觉注意力。

“由于与真实的大脑神经元网络高度相似,且有着相同的运行效率,博亨的神经网格遥遥领先于其他大规模神经形态系统。”INI联合创始人、硅神经元的开发者之一罗德尼· 道格拉斯(Rodney Douglas)说。

不过,正如博亨自己所说的那样,没有什么系统是完美的。神经网格最大的缺点之一是突触连接简单,每个神经元约有5 000个突触,但突触不能单独修改。这意味着,该系统不能用于模拟学习过程,而在大脑中,学习经历会修改突触连接。考虑到芯片的可用空间有限,在一个复杂的电路中,若要使每个突触的工作方式更接近现实情况,则要求电路元件的体积只能有目前的千分之一,达到纳米技术的范围。这在目前是不可能实现的,但新研发出的一种名为“忆阻器”(memristors)的纳米级存储设备,可能有一天会解决这个问题。

另一个问题来自制造过程。在制造中,一些小误差无法避免,这导致每个神经形态芯片在运行时都略有不同。“这些小误差远远少于在大脑中观察到的情况”,博亨说,但这确实意味着,神经网格程序必须允许硅神经元的放电频率存在实质性差异。

这一问题导致一些研究人员抛弃了米德最初提出的使用“亚阈值”硅芯片的想法。他们转而使用更传统的数字化系统。在一定程度上,这些数字化系统通过模拟单个神经元的电学性质,也具有神经形态特性,而且可预测性更强,更易编程,但代价是,能耗更高。

“三角帆计划”(SpiNNaker Project)就是一个典型的例子。2005年,英国曼彻斯特大学的电脑工程师史蒂夫·弗伯(Steve Furber)发起了这个项目。系统采用了一种功耗极低的数字芯片,该芯片在很多智能手机中都能找到。“三角帆计划”目前可以模拟多达500万个神经元。弗伯说,这些神经元比神经网格中的神经元更简单,需要耗费更多能量,但这套系统的目的与神经网格是相似的:“模仿生物学大脑,实时运行大型大脑模型”。

另一个研发方向依然是研制神经元芯片,但却是努力提高芯片的运行速度。神经网格中,神经元的运行速度与真实神经元相同。由德国海德堡大学物理学家卡尔海因茨·迈耶(Karlheinz Meier)带领的“欧洲BrainScaleS项目”,正在开发一种神经形态系统,目前能模拟40万个神经元,运行速度比真实大脑速度快10 000倍。这也意味着,在相同的任务中,它消耗的能量会比大脑多10 000倍,但这套系统的运行速度,对于一些神经科学家来说却是好消息,迈耶说,“我们可以在10秒内模拟一天的神经活动”。

弗伯和迈耶现在有资金去推动项目发展,使系统更加庞大、更加完善。他们都被选入了欧盟开展的“人类大脑计划”(Human Brain ProjectHBP),该计划为期10年,投入总经费10亿欧元,已在不久前正式启动。粗略统计,将会有1亿欧元用于神经形态研究,这样弗伯团队就能扩大系统,模拟5亿个神经元。与此同时,迈耶团队的目标则是400万个神经元。

但传统方法也就只能做到这样。自2008年以来,美国国防部高级研究计划局(US Defense Advanced Research Projects Agency)已经投入了1亿美元以上的经费在Synapse项目上,用来开发紧凑型、低功耗神经形态技术。该项目的主要承担者之一、IBM阿尔马登研究中心的认知计算小组,已经利用项目资金来开发含有256个数字神经元的芯片,可以用来构建大型系统。

 

走向应用

博亨则正在用自己的方法来实现实际应用。这里不得不提他在20134月开始的一个尚未命名的项目。该项目以Spaun模型(一个大脑的计算机模型,包括大脑中负责视觉、运动和决策的部分)为基础。Spaun依赖于10年前由加拿大滑铁卢大学理论神经科学家克里斯·伊莱斯密斯(Chris Eliasmith)开发的神经回路编程语言。用户只需指定所需的神经功能,例如“产生一个移动手臂的指令”,伊莱斯密斯编写的系统就会自动设计神经元网络来实现该功能。

为了验证该系统是否能运转,伊莱斯密斯和同事在一台传统计算机上模拟了Spaun模型。他们展示了一些模拟结果,利用250万个模拟神经元,外加模拟的视网膜和手,就可以完成用手抄写数字、回想列表中的项目、按给定顺序计算出下一个数字,以及其他一些认知任务。博亨说,神经模拟的能力已达到了前所未有的水平。但是,Spaun模拟运行的时间比大脑实际运行时间约慢9 000倍,需要用2.5小时来模拟大脑1秒的行为。

博亨向伊莱斯密斯介绍了自己的提议:利用实时神经形态硬件,来构建一个实体版的Spaun。“我非常兴奋,”伊莱斯密斯说,在他看来,这样的匹配是完美的,“你们有花生酱,而我们有巧克力”!

美国海军研究办公室(US Office of Naval Research)为他们提供了资金,博亨和伊莱斯密斯已经组建了一个团队,计划在3年内构建一个小规模的原型,并在5年内构建一个全面的系统。

博亨说,他们会用INI开发的神经形态视网膜和耳蜗来进行感官输入。对于输出,他们有一个机械臂。但是,认知硬件的构建将会从零开始。“这不是一个新的‘神经网格’,而是一个全新的架构,”因为要具备一定的实用性,这个架构将不会苛求与真实大脑高度相似,而会依托“非常简单、非常有效的神经元,这样我们就可以将系统的神经元数量扩大到数以百万计”。

该系统是专门为现实世界的应用而设计的。博亨称,“我们的设想是,在5年时间内,构建完全自主的机器人,它们可以用一种有意义的方式与环境交互,实时完成任务,而在能耗上仅相当于一部手机”。这种设备会比今天的自动机器人更加灵活,具有更强的适应性,同时消耗非常少的能量。

博亨补充称,从更长远的时间来看,他和伊莱斯密斯的研究成果将不只是用于机器人,还会为更紧凑、更低能耗的处理器的研发铺平道路,这样的处理器将能用于任何计算机系统。如果科学家彻底破解了大脑谜题,找到了大脑如此高效、紧凑和强大的关键原因,对于计算机行业来说,这将是一个重大利好,阻挡芯片发展的那道无形之墙就会倒塌,更小的芯片将会问世。

 

 

本信息转自环球科学,如有侵权,请联络我们会及时核实清理。