您现在的位置是:首页 >人工智能 > 2022-03-21 14:40:16 来源:
人工智能正在帮助科学家解释我们的大脑
大脑通常被称为黑匣子,但任何研究过内部的神经科学家都知道这是一种令人清醒的轻描淡写。技术进步使我们的神经回路越来越容易接近,使我们能够密切观察任何数量的神经元的活动。
大脑以多种方式对信息进行编码。冷泉港实验室助理教授TatianaEngel是一名物理学家,后来成为计算神经科学家,她正在开发数学模型来了解神经元协作做出决策的不同方式。图片来源:PublicDomainPicturesviaPixabay,免费许可
然而,大脑的奥秘只会加深。尖峰神经元的集体合唱中嵌入的含义是什么?他们的活动如何将光和声波转化为我们对视觉和听觉的主观体验?神经元执行哪些计算,它们遵循哪些广泛的管理原则?大脑不是一个黑匣子——它是一个陌生的世界,语言和地方法律尚未破解,直觉会消亡。
人工智能可以为我们解决这个问题吗?可能。但最近的一个认识是,即使是我们在人工智能技术方面取得巨大成功的最新、最强大的工具,在解码大脑方面也步履蹒跚。
机器学习算法,例如人工神经网络,已经解决了许多复杂的任务。他们可以预测天气和股市,或者识别物体和面孔,而且至关重要的是,他们可以在没有我们告诉他们规则的情况下做到这一点。至少在理论上,他们应该能够自己学习大脑活动数据中隐藏的模式,并向我们讲述大脑如何运作的故事。他们确实讲了一个故事。只是,正如一些科学家发现的那样,这个故事不一定来自我们的大脑。
这就是冷泉港实验室(CSHL)助理教授TatianaEngel最近在研究大脑决策时发现的。从物理学家转为计算神经科学家,恩格尔致力于开发数学模型,以帮助解释神经元在我们做出决定时的作用。
虽然神经科学家有一些理论,但他们还没有就决策,即使是最简单的决策,是如何在大脑中实施达成一致的解释。为了探索更广泛的可能性,Engel转向了机器学习:她没有从特定的假设着手对神经活动进行建模,而是从灵活的模型开始,这些模型可以根据数据塑造自己,并在他们的模型中计算出方程的参数。自己的。
在这种方法中,然后根据生成的模型预测一组他们以前从未见过的新大脑测量值的能力来判断它们。但在此过程中,恩格尔想知道,我们有多确定得分最高的模型反映了大脑的潜在逻辑?
“现在在神经科学以及其他领域越来越普遍,使用这种类型的灵活模型作为了解真实物理、生物系统的工具,”恩格尔说。“所以我们建立了一个模型,它可以很好地预测来自系统的数据。然后有这样一种假设,即这样的模型应该以类似于真实系统的方式运行,因此,通过研究模型的工作原理,我们将了解系统的工作原理。”
通常情况下,这种假设可能是没有根据的。在2020年的一项研究中,Engel和她的同事、CSHL的博士后MikhailGenkin研究了灵活模型在合成数据上的效果,研究人员知道合成数据的内部动态。他们发现,与直觉相反,有时被评为最强预测变量的模型与生成数据的原始系统的核心特征相距甚远。
“它们可能具有系统中根本不存在的特征或属性,”恩格尔说。“一个模型可以对数据做出很好的预测,但仍然是错误的。”换句话说,预测能力(机器学习算法的黄金标准)在神经科学应用方面可能是一个误导性指标。
如果没有有效的计算模型,科学家们可能很难理解海量的大脑数据并解释神经活动如何产生大脑功能。恩格尔的发现和其他研究人员的发现可能会让人觉得对人工智能帮助大脑建模的能力的高度吹捧的承诺是一个打击。
然而,这些问题并非无法克服,Engel说。她和其他人已经想出了避免这些陷阱的想法。他们正在开发方法,使他们能够继续使用AI的强大工具,而不会陷入误导性故事。
冰山一角
描述神经元行为的计算尝试总是会带来一些微不足道的教训,即使这些尝试是成功的。1952年,艾伦·霍奇金(AlanHodgkin)和安德鲁·赫胥黎(AndrewHuxley)将神经元想象成一个电路,其精心布置的电阻器和电容器可以产生类似于神经元特征尖峰的电流,这是大脑中通信的基石。
该模型被证明是一项关键成就,但仅通过查看方程式就知道这一点远非简单。赫胥黎花了数天时间煞费苦心地将电压数字输入机械计算器,以查看电路的结果是否与真正的神经元相匹配,他对这个相对简单的模型的复杂行为感到惊讶。
“很多时候,我的期望被证明是错误的,”他在十年后的诺贝尔奖演讲中回忆道。“我从这些手动计算中学到的一个重要教训是,在尝试处理这种复杂程度的系统时,一个人的直觉完全不足。”
神经科学家现在面临着更高数量级的复杂性,因为他们已经开始研究活体动物和人的神经元种群。即使只有100个神经元,数据也大得令人眼花缭乱。它动态变化,没有明显的韵律和原因。而且很少清楚其中哪些部分与正在研究的大脑功能真正相关。这些因素使得提出模型、概念或数学模型来描述神经活动变得更加困难。
更难的是弄清楚哪个提出的模型解释了神经元的真实情况,以及哪个模型是数据的幸运数学匹配。在不了解大脑的基本规则的情况下,科学家们能做的最好的事情就是看看这些模型是如何相互叠加的。
“就好像我们所看到的只是一辆移动的汽车,我们必须通过对引擎盖下发生的事情做出假设来找出它是如何移动的,”与Engel合作制定决策的波士顿大学神经科学家ChandramouliChandrasekaran说研究。“然后,我们试图找出提出的想法,比如模型A和模型B,在匹配我们对汽车运动的测量方面做得更好。”
Chandrasekaran说,尽管这种方法越来越流行,但这种方法仍然可能在一些重要方面失败。作为直接从事大脑测量工作的混合计算和实验研究人员,Chandrasekaran直接知道神经活动与平稳行驶的汽车完全不同——它自然过于复杂,无法完全融入我们粗略勾画的模型的线条中。
“实验数据通常更加复杂和异构。就是这样。它并不像你想象的那么简单和精美,”他说。Chandrasekaran表明,这在实践中意味着,神经活动的切向变化有时会导致它被归类为模型A,而实际上它遵循模型B,反之亦然。这就是为什么不能保证直接比较两个模型来识别正确模型的原因之一。
最近在决策领域爆发的激烈辩论凸显了这些困难。它始于2015年《科学》杂志上一篇有争议的发现,该论文比较了大脑如何做出决定的两种模型,特别是感知模型。感知决策涉及大脑对其接收到的感官信息做出判断:它是红色还是绿色?它是向右移动还是向左移动?
简单的决定,但如果您在交通站点,后果会很严重。为了研究大脑如何制造它们,研究人员几十年来一直在记录动物神经元组的活动。当绘制神经元的放电率并在试验中取平均值时,它会呈现出逐渐上升的信号,“加速”做出决定。
在基于自1990年代以来一直存在的有影响力的模型的标准叙述中,斜坡反映了神经元逐渐积累的证据。换句话说,这就是神经元发出决定信号的方式:通过增加它们的放电率,因为它们收集有利于一种或另一种选择的证据,直到它们满意为止。
然而,2015年的研究询问了斜坡上升是否是平均试验的产物。分析单一试验的凌乱有限数据要困难得多,但其中会发生什么?神经元的放电率真的会增加还是会发生离散的跳跃?这种区别可能指向不同的决策策略。他们的分析表明,神经元的反应比跳跃模型更好地匹配跳跃模型。几年和许多研究之后,科学家们仍然没有确定哪种模型是正确的。
情况可能更糟:这两种模式都可能不正确。“如果有C型怎么办?还是D?”恩格尔说。如果她可以测试连续模型而不是两个模型怎么办?这就是灵活建模最有用的地方,因为它不会将她限制在少数几个场景中。但恩格尔发现,这种方法还可以选择与引擎盖下的物理现实没有太多共同点的场景。首先,她必须想办法解决这个问题。
反映现实
灵活模型的开发考虑了机器学习的目标:优化预测能力。通过这种方式,他们可以将他们从一组数据中学到的知识应用到他们以前从未见过的新数据中。例如,当构建一个分类器来区分猫和狗时,目标是在现实世界中它仍然可以区分猫和狗。算法是否使用与我们的大脑相同的策略来实现这一点并不重要。事实上,在这种情况下,它肯定不会。
另一方面,神经科学家有一个根本不同的目标:他们不想仅仅为数据拟合模型,而是从数据中发现假设。他们希望有一个模型,可以从神经活动中学习如何像神经元一样。
“我们不得不放弃优化预测模型的想法,并提出一种新的方法来提出不同的目标,”恩格尔说。她与Genkin一起关注的事实是,在不同的数据样本中,真实特征是相同的,但噪声是不同的。
因此,他们开发了一种新程序,可以在不同的数据样本上发现模型,并提取它们的共同特征。这种新方法确定了合成数据的正确模型。当应用于真实的大脑数据时,它为每个样本得出了相似的模型,这表明与传统方法的疯狂猜测不同,这些模型捕捉到了系统的一些真实特征。
该解决方案发表在NatureMachineIntelligence上,将使灵活的模型在其原始目的之外更具可扩展性,并且对生物科学更有用。Engel说,它可能不是针对神经科学中使用的所有AI工具案例的解决方案,但它可以改进灵活模型的应用,神经科学家广泛使用这种模型。
对于恩格尔本人来说,它已经开始对决策产生新的见解。与Chandrasekaran合作,该团队正在探索他们最初的问题:什么样的模型最能描述决策过程中的神经活动?到目前为止,他们看到的既不是斜坡也不是跳跃。他们的发现会解决争论吗?还是将其踢进另一轮?希望我们很快就会知道。