从物理公式获灵感,博士生极简模型解锁认知策略

日期:2025-08-07 10:44:00 / 人气:64



2025年7月2日,加州大学圣地亚哥分校神经科学博士生李济安在《自然》(Nature)发表了一项突破性研究。他另辟蹊径,从物理学理论中汲取灵感,构建了一个结构极简、完全数据驱动的模型。该模型无需任何人为假设,就能捕捉复杂且非最优的行为模式,在行为预测精度上全面超越传统模型,为生物体策略行为提供了一种可计算、可视化且易于理解的抽象结构。

自亚里士多德提出“人是理性的动物”以来,理性一直被视为人类行为决策的核心原则。从经济学中的“理性人”假设,到决策理论中对最优选择的追求,诸多研究和思想都默认人类决策是理性的。著名认知心理学家、普林斯顿大学教授丹尼尔·卡尼曼在其畅销书《思考,快与慢》中就发出疑问:“人类究竟有多理性?”有趣的是,虽然诺贝尔奖中没有心理学奖,但卡尼曼凭借在行为决策方面的研究贡献,于2002年获得了诺贝尔经济学奖。日常生活中,人们的决策看似繁杂,实则往往涉及对成本、收益与风险的权衡,这种基于理性的判断贯穿于从日常购物到职业规划的各个方面。

随着人工智能技术的飞速发展,大模型成为人类决策的重要辅助工具。在金融投资的风险预测、医疗诊断的方案推荐、城市交通的智能调度以及个人学习计划的定制等领域,大模型凭借对海量数据的分析能力和复杂逻辑的运算能力,不断为人类提供更精准、高效的最优决策路径,使理性决策在更多领域得以应用。例如,AlphaFold因对蛋白质复杂结构的预测,获得了2024年诺贝尔化学奖。

然而,人类决策机制的深层逻辑始终是个未解之谜。为何在相同信息下不同人会做出截然不同的选择?决策过程中理性与直觉如何相互作用?这些问题推动着脑科学、神经科学与心理学等多学科持续探索。人工智能的发展也重新引发了人们的关注:AI能否帮助我们理解大脑?李济安的研究尝试给出答案。

传统模型的局限与新的探索方向

在心理学和神经科学领域,研究者常用计算模型解析生物体的认知过程,如感知、记忆、决策与学习机制。以决策为例,模型有助于理解个体如何基于过往经验,在多个选项中做出选择。

传统认知建模方法主要有两类。一类是贝叶斯最优模型,研究者依据任务结构手动构建该模型,其核心假设是生物体能够整合所有可用信息,以概率最优的方式做出判断。例如医生诊断时综合症状、检验结果、流行病趋势与经验积累的证据,就是这种不确定信息整合的体现,该模型默认个体对信息和不确定性有最优估计。

另一类是强化学习模型,它假设人或动物通过与环境的互动,从“奖励”或“惩罚”中学习行为策略。比如在老虎机任务中,参与者经过反复尝试逐渐偏好中奖率更高的机器,这一通过奖励优化策略的过程可由强化学习算法模拟其行为价值更新机制。

这些模型的共同特点是结构简洁、参数量少,例如“学习率”(控制新信息更新速度)和“决策噪音”(反映行为的随机性,即干扰决策的影响因素),因此容易解释和拟合。但恰恰因为其简洁性以及隐含的最优性假设,它们难以捕捉真实生物行为中普遍存在的复杂性与次优性。

例如,在实验中观察到,当奖励结构发生改变后,动物常常仍固守之前的选择偏好,即便新选择更优。这种“固执”的行为现象很难用最优模型解释。研究者往往需要在模型中人为增加额外的“惯性”参数,或设计特定规则来拟合实际行为。然而,随着需解释的行为细节不断增多,模型结构会变得愈发繁琐,充满“补丁式”假设,这不仅容易引入主观偏见,也使其难以推广应用到其他情景任务中,这也是传统认知模型一直为学界所诟病的问题。

李济安从2021年开始利用神经网络研究人的行为决策,他想探究是否存在一种无需预设的建模方式,能让模型直接从行为数据中“自主发现”策略。

从物理公式到极简模型的诞生

得益于本科期间扎实的数理基础,李济安从物理学公式中找到了理解神经科学的灵感——从动力系统出发的公式发现。他是中国科学技术大学12级本科生,本科虽为生物学专业,但科大学生本科期间数学和物理是必修课,且数理基础要求高,业内常说他们的数学课比其他数学专业的课程还难,他认为这一定程度上影响了他的思维。“很多时候学了这些知识,当时可能没觉得有用,但可能在某一瞬间灵光乍现,所有学科是相通的。”李济安表示。

自动公式发现的核心基于符号回归技术。与常见的函数拟合不同,拟合通常是用已知函数形式去逼近数据,而符号回归是在给定的函数库(包含对数函数、三角函数、多项式函数等)中,通过组合和算术运算生成一个函数,力求精确拟合输入输出数据。例如在研究物体的运动轨迹时,符号回归能从物体在不同时刻的位置、速度等数据里,找到描述其运动规律的准确公式,像匀加速直线运动的位移公式s = v0t + 1/2at²就有可能被自动发现。李济安通过查阅资料发现,这一原理已广泛应用到物理、工程科学等领域。

受此启发,李济安提出了一种新方法:使用微型循环神经网络(recurrent neural network,RNN)作为通用策略学习器,对个体的行为动态进行建模。

循环神经网络(RNN)是一类专为建模时间序列数据设计的神经网络结构,其核心优势在于能通过内部的循环连接机制,自动捕捉数据随时间推移形成的动态依赖关系,比如行为序列中前后动作的关联规律。

李济安所采用的模型极为精简,仅包含1 - 4个神经单元。这种轻量化设计让模型在保留对复杂行为模式足够表达能力的同时,维持了较强的可解释性,使得深入分析其内部神经元的活动机制与决策逻辑成为可能。

李济安的核心研究问题是:这种结构极简、完全数据驱动的模型,是否能够在无需任何人为假设的前提下,捕捉复杂且非最优的行为模式,如人们常常懒得换、爱用老办法(“偏好保持”)或在“尝鲜”和“吃老本”之间反复权衡(“探索 - 利用”权衡)等,它是否能够在多样化任务中超越传统强化学习或混合策略模型的表现?

实验结果显示,这些微型循环神经网络模型在六类经典奖励学习任务中(涵盖人类、猴子、小鼠、大鼠的行为数据)表现出色,在行为预测精度上全面优于传统模型,并可与更大规模的循环神经网络相媲美。这表明,即便使用高度压缩的网络,它依旧能学会并举一反三地模仿各种复杂决策,展现出用模型理解动物和人类行为的巨大潜力。

这些仅有1 - 4个神经元构成的RNN模型在行为预测上不仅准确,而且具备很强的可解释性。李济安解释道:“在模型中,动物行为的决策随时间变化,我突然想到物理学中研究小球的运动,需要记录运动的方向、时间、距离等等。于是我就用物理学中的动力系统的分析方法,用一张图来呈现决策过程,以当前动作偏好(Logit)为坐标、用箭头或颜色指示下一步的变化方向与幅度。这是整个研究中最大的突破点。”这些图片展示了不同模型在运行时的关键特点,比如哪些状态是稳定的,哪些状态会吸引模型靠近,以及模型如何在状态间切换,清晰地呈现了动物的思维如何从一个想法或状态转变到另一个。

李济安从动力系统出发的研究方法带来了很多意外发现。例如,某些行为策略会根据不同的状态调整学习速度,类似人在不同情境下改变学习方式。此外,它还揭示了一些传统方法难以发现的新心理机制,如奖励后可能表现出“无所谓”倾向,决策时不再在意差别。

起初,2023年5月李济安第一次投稿时,只用了三个动物的数据集,审稿人认为说服力不够、“应用性不够广泛”。于是,他在二轮返稿时补充了人类的数据集,结果同样符合预期,审稿意见这才明朗起来。

研究的意义与展望

极具启发性的是,李济安发现即使是面对复杂任务,描述单个个体的行为所需的最小网络维度也很低。这提示了每个受试对象在特定任务中的“最小行为维度”是有限的。这种从动力学系统出发的研究方法不仅有助于刻画个体差异,也为认知建模提供了一个新的、可量化的指标来描述行为的复杂性。

最振奋人心的是,神经网络在人们心中的形象将发生转变,不再只是一个行为拟合的黑箱工具,而正在成为一种认知显微镜。神经网络工具长期被喻为“黑箱”,其核心在于数据输入后经多层神经元的加权计算、特征传递最终输出结果,但内部数据处理逻辑、特征提取过程与决策依据均难以用清晰直观的方式解释,人们能看到输入与输出,却无法透视内部运作的“齿轮与链条”,这种不透明性也带来了可解释性不足的挑战。

而李济安他们的研究表明,神经网络不仅具备数据驱动的建模能力,还能通过压缩与适当的模型分析,揭示出潜在的行为生成机制。这项研究成果不仅扩展了认知建模的工具集,也为高可解释性行为建模提供了新的方向。

这种研究范式与当前“AI for Science”的趋势不谋而合,即神经网络作为模型发现的中介工具,能够从高维实验数据中提取结构化知识。为了实现知识的可解释表达,需要找到适当的结构化表示形式。理想的表示形式应满足两点:一是具备良好的预测能力,二是对人类研究者而言语义清晰、逻辑透明。例如,AlphaFold在蛋白质建模中通过图结构表示氨基酸间的几何约束。在该项研究中,这种结构化形式体现为低维离散动力系统,即只用少数几个关键指标,描述和预测事件随时间如何一步步变化。这为生物体策略行为提供了一种可计算、可视化且易于理解的抽象结构。

李济安本硕博三个专业乍一看毫不相关,但实则有着内在联系。他1994年出生于安徽芜湖,从小学就学习编程语言,参与电脑竞赛班。初中起,他开始对生物感兴趣,凭借生物竞赛和计算机竞赛保送中国科学技术大学,2016年获神经生物与生物物理理学学士、计算机科学与技术(双)工学学士学位。2019年获中国科学技术大学应用统计硕士学位,目前在加州大学圣地亚哥分校读博,从事神经科学研究。

本科期间,除周末攻读计算机课程外,李济安还加入了张效初老师的生命科学院认知神经心理学实验室,这是他科研之路的开端。在研究中,他发现应用统计学是从事学术研究工作的工具和基础,于是硕士转向应用统计学。在此期间,他一边跟随统计学导师,一边跟随生物学导师,向着预测人类行为的方向持续深耕。

“其实现在很多研究人员都是交叉学科背景的,像做神经科学领域的,你会发现有人工智能的、统计学的、心理学的。我觉得学习研究是一个过程,做好前期充足的知识储备,才可能会在潜移默化中迸发灵感。比如我一直没有丢下AI的学习,没有忽略研究工具的学习。”在大语言模型能力持续发展的当下,AI与神经科学的关联日益紧密,由此催生了新兴的NeuroAI领域。这一领域主要关注两个方向的探索:一是“用AI研究大脑”(AI for Neuro),希望借助AI技术自动处理神经数据、提取相关特征,通过人工神经网络模拟神经元活动规律与认知过程,验证或提出新的神经科学理论;二是“用大脑启发AI”(Neuro for AI),希望借助神经科学技术理解AI系统的内部工作原理,基于生物大脑高效的信息处理方式,让AI变得更聪明、更节能、更具类人性。

这项研究揭示了人工神经网络可以帮助我们理解人类的认知机制,正如前文提及Neuro AI有两个核心议题,李济安的研究并没有止步。在本项研究尘埃落定之后,他接着去验证了第二个议题,反过来尝试用神经科学中的理论,来解释大型语言模型(LLMs)所展现出的某些智能特性。结果表明,语言模型确实展现出一定程度的基于上下文学习的元认知能力:它们不仅能够监控自己内部的神经状态,还能在一定程度上对其进行调控。

末了,李济安沉浸在研究中,脸上略显兴奋,“这种互为镜像、相互促进的智能理解体系,正是NeuroAI所描绘的愿景。”

作者:杏鑫娱乐




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 杏鑫娱乐 版权所有