商城首页欢迎来到中国正版软件门户

您的位置:首页 > 业界资讯 >"应用生物脑机制提升智能系统的适应能力:清华朱军等团队研究在Nature子刊封面上发表"

"应用生物脑机制提升智能系统的适应能力:清华朱军等团队研究在Nature子刊封面上发表"

  发布于2024-10-23 阅读(0)

扫一扫,手机访问

在开放、高动态和演化环境中,学习能力是生物智能的核心要素之一,也是人类以及大多数动物在自然选择过程中形成的重要优势。目前,传统机器学习范式是在静态和封闭的数据集上学习到一个模型,并假设其应用环境和之前训练数据的属性相同,因此无法适应动态开放环境带来的挑战

对于这个问题,我们需要持续学习模拟生物智能的学习过程和学习能力,发展新型的机器学习理论和方法,以提升智能体对开放、高动态环境的适应能力。然而,目前主流的机器学习模型通过调整网络参数进行学习,当学习任务的数据分布发生变化时,先前学到的网络参数可能会被覆盖,从而导致对先前知识的灾难性遗忘(catastrophic forgetting)

作为人工智能领域尤其是深度学习发展的一个重要挑战,持续学习近年来受到了广泛的关注。大部分的持续学习方法都致力于提高所学知识的记忆稳定性,以应对灾难性遗忘的问题,例如在学习新任务时固定执行旧任务的网络参数。然而,这些方法通常只能在特定的场景中发挥作用,很难像生物智能那样对现实世界的复杂环境和任务具有普遍适应能力

人工智能领域一直以来都非常关注能否从生物脑的持续学习机理中获得灵感,以开发出新的持续学习方法

对于这个问题,最近,清华大学计算机系朱军教授TSAIL课题组与生命学院钟毅教授课题组合作,在《自然机器智能》期刊上发表了一篇名为《融入神经启发适应性的人工智能方法》的研究论文,该论文被选为12月的封面文章

这项研究采用了贝叶斯方法对生物学习记忆系统的适应性机制进行了深入分析和建模,大大提高了深度神经网络的持续学习能力。这为智能系统在动态开放环境中的自适应发展提供了跨学科的深刻见解

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

论文链接:https://www.nature.com/articles/s42256-023-00747

引言

随着大规模的标注数据出现和硬件设备计算能力的增强,以深度学习为核心的人工智能在计算机视觉、自然语言处理、自动驾驶、智能机器人等领域取得了一系列突破性进展。然而,深度学习高度依赖于静态的数据分布,难以对动态变化的数据分布进行持续学习

从理论层面来看,持续学习的优化目标可以被进一步细化为记忆稳定性、学习可塑性、泛化兼容性等核心要素。为了适应不断变化的环境和任务,智能系统需要在记忆旧知识和学习新知识之间取得适当的平衡,并具备充分的泛化能力以容纳数据分布之间的差异。

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

图 1. 持续学习方法示意图,灵感来源于生物智能 (来源:NMI 原文)

作为天然的模板,人类以及大多数动物天生就是以一种持续不断的方式进行学习的。即使是果蝇等简单的生命体,也进化出了多种适应性机制,以实现有效的持续学习。在果蝇的学习记忆系统中,动态变化的感觉信息可以在多个并行的持续学习模块中被有选择地保护和遗忘,为人工智能提供了重要的启示

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

图2展示了记忆的选择性保护与遗忘机制。这个图表的来源是NMI的原文

研究概览

在方法层面上,研究人员提出了一种生物启发的记忆调控方法,用于有选择地保护和遗忘所学知识。在学习新任务时,该方法通过优化参数分布中的旧任务信息来促进记忆的稳定性,并引入一定程度的遗忘率以促进学习的可塑性。研究人员进一步推导出了一种突触扩张-再归一化的优化算法,使神经网络能够在新旧任务的最优解之间做出明确的权衡,并以此分析了遗忘率在降低持续学习的泛化误差方面的作用,从功能目标和实现机制两个层面与生物智能相呼应

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

图3展示了一个动态调节的并行多模块结构,该结构是从NMI原文中获取的。

同时,研究人员构建了一种类似于果蝇学习记忆系统的并行多模块结构,对应于多个持续学习专家。通过在每个模块中实施所提出的记忆调控机制,可以有选择性地保护和遗忘记忆,从而使各个模块能够分化出适当的任务专长,充分适应不同任务的数据分布差异。研究人员还深入探讨了神经网络的随机性因素与学习规则和遗忘率的相互作用,证明神经系统的适应性机制并不是孤立运作的,而是高度协同的

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

图 4. 持续学习基准的多种实验结果 (来源:NMI 原文)

在多种持续学习基准中,包括视觉任务和强化任务等,透过提出的适应性机制,能够显著提高深度神经网络的持续学习能力。此外,论文还从遗忘的生物学意义和实现机制等角度深入探讨了智能系统在持续学习方面的联系,作为一种新的范式,推动人工智能和生物智能的协同发展

用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面

图5显示了一篇关于持续学习的全面综述,该综述的来源是团队的arxiv论文https://arxiv.org/abs/2302.00487

作者及课题组介绍

本论文的共同通讯作者是清华大学的朱军教授和钟毅教授。本论文的共同第一作者是水木学者博士后王立元和张幸幸助理研究员。本论文的共同作者包括清华大学的李乾助理研究员、苏航副研究员,以及伦敦大学学院的张鸣天博士

清华大学TSAIL课题组一直致力于贝叶斯机器学习的理论和算法研究。最近几年,课题组在机器学习和神经科学的最新进展基础上,发表了一系列重要的持续学习领域的成果。今年年初,他们完成了一篇名为《持续学习的综合调查:理论、方法和应用》的综述论文,对持续学习的基本设置、理论基础、代表性方法和实际应用等方面的研究进展进行了系统梳理,并提出了未来的发展方向。这篇论文引起了国内外人工智能社区的广泛关注

另外,还提出了一些针对持续学习领域中普遍存在的技术难题的解决方法,包括生成模型的半监督持续学习 (CVPR’21)、具备选择性遗忘的权重正则化方法 (NeurIPS’21)、自适应数据压缩的记忆回放方法 (ICLR’22)、以及动态并行模块的持续学习架构 (ECCV’22)等

最近,NeurIPS’23将有关预训练模型持续学习理论与方法的研究论文“基于提示的持续学习的分层分解:重新思考模糊的次优性”评为重点关注。该论文通过对预训练背景下的持续学习优化目标进行分层分解,提出了适用于各种微调技术(如提示、适配器、LoRA等)的通用框架,显著提升了预训练模型在动态开放环境下的自适应性

本文转载于:https://www.51cto.com/article/777022.html 如有侵犯,请联系admin@zhengruan.com删除

热门关注