您现在的位置是:首页 > 人工智能人工智能
为提高能量利用效率,大脑练就了预测感知能力
cc博主2021-11-23【人工智能】739人已围观
感知中的无意识推理
预测处理起初看起来可能像是一种违反直觉的复杂感知机制,但科学家们一直以来非常偏向于它,因为似乎没有其它更好的解释。甚至在一千年前,穆斯林阿拉伯天文学家、数学家Hasan Ibn Al-Haytham在他的《光学书》中就强调了预测处理的一种形式,用来解释视觉的各个方面。这一想法在19世纪60年代得到了有力支撑,德国物理学家兼医生Hermann von Helmholtz认为,大脑推断出其传入的感知输入的外部原因,而不是从这些输入"自下而上"地构建其感知。20世纪中叶的认知心理学家用这种看起来既像鸭子又像兔子的图像来研究人类的感知Helmholtz 阐述了"无意识推理(unconscious inference)"的概念,来解释双稳态或多稳态感知,即一个图像可以以不同方式被感知。例如,在一些的模棱两可的图像上,像上图所展示的那样,我们可以感知它为一只鸭子,又可以认为它是一只兔子,我们的感知在两种动物图像之间不断转换。Helmholtz 表示在这种情况下,由于在视网膜上形成的图像没有变化,所以感知必须是一个自上而下推断感官信息原因的无意识过程的结果。在20世纪,认知心理学家们继续提出了这样的观点:感知是一个主动建构的过程,它同时借鉴了自下而上的感知和自上而下的概念性输入。Richard Langton Gregory在1980年发表了一篇非常有影响力的论文“Perceptions as Hypotheses”。该论文中,作者认为感知错觉本质上是大脑对感官印象原因的错误猜测。同时,计算机视觉科学家们在努力使用自下而上的重建,使计算机在没有内部 "生成 "模型参考的情况下进行观察。尽管预测处理的接受度在不断提高,但是,关于它是如何在大脑中实现的这一问题仍然存在。流行的一种被称为预测编码的模型,认为大脑中的信息处理水平是有层次的。最高级代表最抽象、最高级的知识,例如,对前方阴影中的蛇的感知。该层通过向下发送信号来预测下一层的神经活动。下层将其实际活动与上面的预测进行比较。如果存在不匹配,该层会生成一个向上流动的错误信号,以便更高层可以更新其内部表征。这个过程同时发生在每一对连续层,一直到接收实际感知输入的最底层。从外界接收到信息和预期结果之间的任何差异都会导致一个错误信号,并在层次结构上产生涟漪。然后最高层最终更新了它的假设,那不是一条蛇,只是地上的一根卷曲的绳子。"一般来说,预测性编码的原理是大脑基本有两个神经元群体,特别是当它应用于大脑皮层时,一个编码关于正在感知的东西的当前最佳预测,另一个是该预测的错误信号"de Lange 说。1999年,计算机科学家 Rajesh Rao和Dana Ballard 分别在索尔克生物研究所和罗切斯特大学建立了一个强大的预测编码计算模型,其中有明确用于预测和纠错的神经元。他们对灵长类动物大脑视觉处理系统中的部分路径进行了建模,该路径由负责识别面部和物体的分层组织区域组成。他们的研究表明,该模型可以重现灵长类动物视觉系统的一些不寻常行为。然而,这项工作是在现代深度神经网络出现之前完成的。而深度神经网络有一个输入层、一个输出层和夹在两者之间的多个隐藏层。到2012年,神经科学家们开始使用深度神经网络来模拟灵长类动物的腹侧视觉流。但几乎所有这些模型都是前馈网络,其中信息只从输入流向输出。"大脑显然不是一个纯粹的前馈机器,"de Lange说,"大脑中有很多反馈,和前馈信号一样多"。因此,神经科学家们转而研究另一种类型的模型——递归神经网络(RNN)。纽约西奈山伊坎医学院的计算神经科学家和助理教授Kanaka Rajan表示:这些模型的特点使它们成为模拟大脑的 "理想基质",他的实验室使用RNNs来理解大脑功能。RNNs的神经元之间既有前馈连接,也有反馈连接,它们持续不断地活动,这与输入无关。Rajan说:"这种长时间产生这些动态的能力几乎是永久性的,然后使这些网络能够接受训练。"
预测是为了节能RNNs引起了William Lotter 和他在哈佛大学的博士论文导师 David Cox 以及Gabriel Kreiman的注意。2016年,该团队构建了PredNet,这是一个递归神经网络,其架构设计用于执行预测编码。该团队按照预测编码的原则将RNN设计成一个由四层组成的层次结构,每一层都预测它从下面一层预测到的输入,如果出现不匹配,则向上发送一个错误信号。William Lotter然后,他们在汽车摄像拍摄的城市街道视频上训练该网络。PredNet学会了连续预测视频中的下一帧。"我们起初不确定它是否真的能工作,后来尝试了一下,发现它确实在进行预测。这非常酷"Lotter说。下一阶段是将PredNet与神经科学联系起来。去年在《Nature Machine Intelligence》杂志上, Lotter及其团队在报告中说:PredNet展示了在猴子大脑中看到的对意外刺激的反应行为,包括在简单前馈网络中难以复制的一些行为。Kietzmann认为PredNet是一项非常了不起的工作。但是他与 Marcel van Gerven以及他们的团队所追求的是更根本性的东西:无论是Rao和Ballard模型,还是PredNet,都纳入了用于预测和纠错的人工神经元,以及导致正确的自上而下预测抑制错误神经元的机制。但如果这些都没有明确规定呢?Kietzmann表示很想知道是否真的需要这些架构来约束,或者是否可以用一种更简单的方法来解决这一问题。一个想法突然浮现在Kietzmann和van Gerven的脑海中:神经通讯是有能量成本的(大脑是人体中能量最密集的器官)。因此,为了保存能量,生物体内任何进化的神经网络的行为可能都会受到限制。研究人员决定观察是否有任何预测编码的计算机制可能出现在 RNN 中,这些 RNN 必须使用尽可能少的能量来完成任务。他们认为,他们网络中的人工神经元之间的连接强度(也被称为权重),可以作为突触传输的代理,这也正是在生物神经元中需要消耗大部分能量的原因。Kietzmann说:"如果你减少人工神经元之间的权重,这意味着你用更少的能量进行交流。我们把这看作是最大限度地减少突触传输。"当PredNet这个具有预测编码架构的神经网络,被呈现在视频序列中的帧(上图),它学会了预测它们(下图)。然后,该团队在多个连续数字序列上以升序、环绕顺序训练 RNN:1234567890,3456789012,6789012345等。每个数字都以28×28像素的图像形式显示给网络。RNN学会了一个内部模型,可以从序列中的任何随机位置开始预测下一个数字。但该网络被迫用单元之间尽可能少的权重来做这件事,类似于生物神经系统中的低水平神经活动。在这些条件下,RNN学会了预测序列中的下一个数字。其中一些人工神经元充当 "预测单元",代表预期输入的模型。其他神经元作为 "错误单元",在预测单元尚未学会正确预测下一个数字时最为活跃。当预测单元开始变得正确时,这些错误单元就变得“低调”了。值得一提的是,该网络之所以采用这种架构,是因为它必须要尽量减少能量的使用。Kietzmann说:"它只是学会了做人们通常明确地建立在系统中的那种抑制,我们的系统开启即用,作为一个突发事件来做,以达到节能的目的。"将能量使用降到最低的神经网络最终会实施某种预测性处理,这证明生物大脑可能也在做同样的事情。Rajan称Kietzmann的工作是一个 "非常巧妙的例子,说明了像能量最小化这样的自上而下的限制是如何间接地导致像预测编码这样的特定功能的"。这促使她思考RNN中特定错误和预测单元的出现是否可能是一个意外,是否只有网络边缘的神经元在接收输入。如果输入分布在整个网络中,"我下意识的猜测是,虽然你不会发现错误单元和预测单元之间的分离,但你仍然会发现预测活动"她说。
脑行为的统一框架尽管这些来自计算研究的见解看起来很有说服力,但最终只有来自活体大脑的证据才能说服神经科学家相信大脑中的预测处理。为此,麦吉尔大学和魁北克人工智能研究所Mila的神经科学家和计算机科学家 Blake Richards和他的同事们制定了一些明确的假设,来说明他们应该在学习对意外事件进行预测的大脑中看到的事物。“大脑中的锥体神经元似乎在解剖学上适合预测性处理,因为它们可以分别整合来自邻近神经元的‘自下而上’的信号和来自更远处的‘自上而下’的信号。”——selvanegra为了验证他们的假设,他们同西雅图艾伦脑科学研究所的研究人员对小鼠进行了实验,同时监测其大脑中的神经活动。特别令人感兴趣的是,大脑新皮质中的某些锥体神经元从解剖学上来说适合预测处理。它们既能通过对其细胞体的输入接收来自附近神经元的局部自下而上的感觉信号,又能通过其顶端树突接收来自更远的神经元的自上而下的预测信号。小鼠看到了许多Gabor斑块的序列,这些斑块由光和暗的条纹组成。小鼠们也开始期待每个序列中的所有四个斑点的方向大致相同。然后,研究人员意想不到地的突然将第四个Gabor补丁随机旋转到不同的方向。动物们起初很惊讶,但随着时间的推移,它们也开始期待这种惊喜。在这期间,研究人员一直在观察小鼠大脑中的活动。他们观察到,许多神经元对预期和意外的刺激有不同的反应。重要的是,在测试的第一天,这种差异在局部的、自下而上的信号中很强烈,但在第二天和第三天就减弱了。在预测处理的背景下,由于刺激不那么强烈了,新形成的自上而下的期望开始抑制对传入的感觉信息的反应。与此同时,顶端树突的情况则相反。它们对意外刺激的反应的差异随着时间的推移而增加。神经回路似乎正在学习更好地表示令人惊讶事件的特性,以便在下一次做出更好的预测。"这项研究为类似预测性学习或预测性编码的东西正在新皮层中发生的想法提供了进一步的支持,"Richards说。诚然,对神经元活动或动物行为的个别观察有时可以用大脑的一些其它模型来解释。例如,神经元对同一输入的反应减弱,而不是被解释为错误单元的抑制,可能只是由于适应过程。但是,"你会得到这整个‘电话簿’中对不同现象的解释,"de Lange说。另一方面,预测处理提供了一个统一的框架,可以一次性解释许多现象,因此它作为一种大脑工作原理的理论具有吸引力。"我认为目前的证据是相当有说服力的,"Richards说,"实际上,我愿意在这个说法上投入大量资金。"原文链接:https://www.quantamagazine.org/to-be-energy-efficient-brains-predict-their-perceptions-20211115/
雷峰网(公众号:雷峰网)
雷峰网版权文章,未经授权禁止转载。详情见转载须知。
相关文章
- 对话SCC21冠军团队!清华的“四连冠”,也是他们的“第一冠”
- 独家 | 对话陈云霁:深度学习处理器之外,用人工智能指导芯片设计也渐成趋势
- 再获“国字号”认定 优必选科技获评“国家级工业设计中心”
- 通用汽车收购电动船初创公司 Pure Watercraft 25% 股份
- 隐私计算企业恪守的“0数据”信仰
- 人人影视字幕组创始人被判刑,官微表态:App 可以删了,不可能重启了;ofo“拉好友退押金”上热搜,央评:这是拉好友“共享”入坑!Facebook 员工对领导层失去信心,愿长期留任的不到一半 | 雷锋早报
- 连续三年!深信服超融合入围Gartner《超融合基础设施软件魔力象限》报告
- 美团与IDEA建联合实验室 发力智慧物流网络研究
- 使用AI写作原理对于seo的作用大吗(伪原创对SEO作用大嘛)
- 微软将牵头为美军开发芯片
猜你喜欢
最新免费ss/ssr节点分享-永久v2ray节点-12小时更新(2022/9/26)
技术好文今天星期一,cc博主继续为大家提供最新免费ss/ssr节点分享-永久v2ray节点,更新于2022年9月26日17点更新,最新v2ray节点分享。需要付费节点下方推荐点击v2rayn出门右拐即可,周末更新资源部分可用,免费资源不易,请大家珍惜。CC博客将分享持...
阅读更多2022 年谷歌博士生奖学金名单公布,17 位华人博士生入选
人工智能作者 | 李梅、黄楠编辑 | 陈彩娴近日,谷歌发布了 2022 年博士奖学金(Google PhD Fellowship)的获奖名单。今年又有多位华人博士生入选,约占总数三成。他们中的多位曾在大陆高校就读本科和硕士,包括清华大学、北京大学、上海交通大学、...
阅读更多Yann LeCun:语言的有限性决定了 AI 永远无法比肩人类智能
人工智能寻找人工智能中的常识(common sense)是比关注语言更重要的任务。整理 | 李梅、王玥编辑 | 陈彩娴前段时间,谷歌工程师声称自家的 AI 聊天机器人 LaMDA 具有了意识,引发了一片混乱。LaMDA 是一种大型语言模型(LLM),能够基于任何给...
阅读更多壁仞科技三年造出首款通用GPU,采用7nm工艺,对打英伟达4nm性能
芯片雷峰网(公众号:雷峰网)消息,GPU明星初创公司壁仞科技,选在公司创立即将三年之际正式发布首款通用GPU芯片BR100。BR100采用7nm工艺,集成770亿晶体管,使用Chiplet(芯粒)技术,2.5D CoWos封装技术,芯片面积达到1000平方毫米。...
阅读更多齐向东:合规是各类数字化业务安全开展的前提
业界“安全有道,合规先行,合规是各类数字化业务安全开展的前提。”在2022北京网络安全大会期间,奇安信集团董事长齐向东结合冬奥网络安全重保实践,总结了零事故的三条标准,分别是业务不中断、数据不出事以及合规不踩线。他强调,合规作为网络安全的基本要求和底线,企业不遵守...
阅读更多