人类的记忆可以移植到电脑里并继续思考吗?

回复 星标
更多
人类的记忆可以移植到电脑里并继续思考吗?
»

作者/米糯牛

有意思的问题,让我想到某年全国高考作文题“假如记忆可以移植”。如果能实现确实就和《黑客帝国》差不太多了。正好人脑的运算和控制功能是我的研究方向,我来展开说一下。


你的问题有两部分,首先是能不能把记忆保存下来,然后是能不能继续思考。技术上讲前者虽然昂贵但确实有可能,后者则极为困难。


首先记忆能不能保存?换句话说,能不能把某一时刻人脑中所有的信息保存下来,留待后用?技术上讲是可以的。举个极端的例子,如果把一个人脑急冻,然后在细胞死亡之前全部切片、化验、扫描……运用现有的技术走完这样一个流程,已经可以得到相当精确的神经元分布、神经元形态、甚至比细胞小得多的分子状态信息。注意这些信息是海量的,人脑中的神经元数目差不多是一百亿这个量级,如果再考虑到分子信息那就把一百亿再添几个零。不过数据虽然海量,但理论上讲只要存储空间足够大,负责重建模型的人员足够多,那么就用现在的电脑是可以把某一个人脑的瞬时神经状态都存储下来的(不过这个捐赠者就得壮烈了)。英国的 SpiNNaker 项目和 IBM 蓝脑项目都在往海量信息这个方向上努力。


你问的第二个问题是能不能“继续思考”,这个就难了。挑战主要源自两个方面,一是神经元之间的互联(学名叫突触)太过复杂,现有的电脑软硬件都难以重建如此复杂的突触互联;二是人脑的信息处理机制和我们所熟悉的“冯·诺依曼”结构的电脑完全不同,人脑的信息处理功能要想移植到电脑上,恐怕需要重新设计它的计算体系。


互联上的困难应该不难理解,如果一百亿的神经元两两互联,理论上讲就有一百亿的平方(10^20 次方)种可能性,更不巧的是在神经系统中一对多、多对多的突触互联比比皆是,于是要处理的信息量需要再翻很多倍。若想模拟人脑处理信息的功能,一般认为必须把这些互联关系都编程仿真到电脑上,然而这个要求基本上超出了现有计算机软硬件的处理能力——要么存储空间不够,要么处理起来太慢。也就是说呢,就算上面讲的急冻切片扫描出的人脑信息被成功存储到了电脑上,我们人类用现在的电脑也没有能力仿照自己的大脑继续利用这些信息。


但其实第二条难点更难逾越,现代电脑和人脑本质上的不同使得互相模拟起来非常困难。我们能见到的电脑几乎都是在实现“图灵机”这种理论模型,它模拟了人类在推理演绎时的信息处理方式,每一步演算完成后把结果抄在纸上,然后根据结果再拿另一张纸继续运算。这类机器做信息处理的时候说白了都是在一格一格的查字典,由此产生的特点是信息的处理环环相扣,有迹可循。但每个人如果回顾一下自己思维的过程,很多情况下(甚至绝大多数人在绝大多数时候)思维是跳跃发散,灵光乍现的。这种思维模式就不适合用推理演绎来描述了,它更符合数学上“映射”的概念——如果看到一张人脸,你我不需要运行任何条件循环,不需要查找数据库,不需要特征值提取或者矩阵运算,迅速就能映射出一个结论:这个人是不是我妈。


这种区别并不说明人脑有多神奇,主要还是因为电脑和人脑的硬件构成有很大差异。简单的说,电脑硬件的目的是依序完成简单的单步运算从而得出复杂的结果,所以晶体管芯片完成单步运算的速度极快。譬如在 GHz 主频的电脑上,一个最简单运算花掉的时间只够光传播一根筷子的距离,因而用这种硬件来实现循环、迭代、查找等功能非常高效。但晶体管比起细胞来毕竟价格昂贵,所以独立的信息处理单元数量不大,并发能力弱,实现起复杂映射来也不是强项。人脑恰好反过来,单步信息处理速度并不快,也没有中央时钟可以调度任务,但它拥有数量惊人的神经元和可以动态调整的互联结构,这种硬件则极适合完成复杂映射,也先天具有大规模并发的能力。


那现在这方面的研究进展到什么程度了呢?有兴趣的朋友可以关注 Neuromorphic Computing 这个领域的动态。需要注意的是这个领域主要研究能否借用神经计算的原理来开发新体制的计算设备,但仍有不少研究组在关注能不能用类似的设备拓展人脑的信息处理能力。南加大的 Berger 教授组在设计可植入小脑和海马体的芯片,从而修复受损的运动协调和记忆能力。约翰霍普金斯的 Etienne-Cummings 组搞出了植入脊髓的芯片,让瘫痪的猫重新走路。斯坦福的 Boahen 组在自制芯片上跑了一百万个高度仿真的神经元,而且是实时运行,互联可调。我所在的南加大 Sanger 组正在用 FPGA 阵列实时模拟人脑的运动控制功能,并在机器人和人体标本上重建出脑瘫等运动疾病。

新窗口打开 关闭