昆都伦门户网

首页 > 正文

类人连续学习及情境依赖学习方面取得进展

www.tenimizer.com2019-09-18

中国科学院之声2011.14.14我想分享

中国科学院自动化研究所脑网络研究中心和模式识别国家重点实验室提出了一种结合上下文信息处理模块的正交权重修改算法,使人工神经网络具有强大的连续学习和上下文功能。依赖学习能力。解决灾难性遗忘的问题。相关结果已在Nature Machine Intelligence上在线发表。

人工智能已经成为21世纪最具挑战性的前沿科学之一,但究竟什么是“智能”?可以肯定的是,个人对复杂和动态环境的高适应性是智力的重要指标。

人脑显然是高环境适应性的典范。人们不仅可以在新环境中吸收新知识,还可以根据不同的环境灵活调整自己的行为。在这方面,深度神经网络(DNN)和大脑之间存在很大差距。传统的DNN受到“灾难性遗忘”问题的困扰。在保留旧知识的同时,很难学习新知识,即缺乏持续学习的能力。另一方面,DNN只能实现预训练。固定操作不能在实际环境中灵活地响应情境信息(例如他们自己的状态,环境变化,任务变化等),并且难以满足复杂和不断变化的需求,即缺乏上下文 - 依赖学习。缺乏这两种能力是制约DNN当前高级智能发展的重要瓶颈。

近日,自动化脑网络研究中心和玉山集团模式识别国家重点实验室在克服上述两个核心问题方面取得了新的进展,并提出了提高人工智能系统对复杂多变环境适应性的新思路。和程序。在“神经网络上下文依赖处理的持续学习”一书中,硕士研究生曾冠雄,博士后陈阳等。提出的正交权重修改(OWM)算法和上下文相关处理(CDP)模块。 OWM算法可以有效地克服神经网络中的灾难遗忘,实现连续学习。受大脑前额叶皮层启发的CDP模块可以有效地整合情境信息并调节神经网络的信息处理过程。两者的有效结合使人工神经网络具有强大的连续学习和依赖于上下文的学习能力,大大提高了其灵活性和适应性。

OWM算法的核心思想是:在学习新任务时,仅在与旧任务输入空间正交的方向上修改神经网络权重。这样,权重增量几乎不影响前一任务的输入,从而保证了在新任务训练过程中网络搜索到的解决方案仍然在前一任务的解空间中。 OWM通过使用由正交投影算子P和误差反向传播算法获得的加权增量ΔWBP来实现其目的,即,最终权重增量是ΔW=κPΔWBP。

OWM算法实现了对网络中现有知识的有效保护,并且与现有的梯度反向传播算法完全兼容,在连续学习测试任务中表现出良好的性能。在连续学习不相交MNIST和混洗MNIST任务的标准任务中,OWM算法优于其他类型的算法。并且,随着学习任务数量的增加,OWM算法的性能优势将进一步提高。使用OWM算法,神经网络可以不断学习识别ImageNet的1000种图片和3755个中文手写汉字(每个任务只训练一种图片或一个汉字)。值得一提的是,该算法具有出色的小样本学习能力。以手写汉字识别为例,基于预训练特征提取器,系统可以从少数正样本中不断学习新汉字。

CDP模块的灵感来自前额叶皮层。前额叶是负责大脑认知控制的核心皮层。它同时接收传感输入和上下文信号,并选择与当前任务最相关的传感信号来指示输出响应。受此启发,作者介绍了一种类似的处理架构 CDP模块,其中包括两个子模块:1。编码子模块,负责将上下文信息编码成适当的控制信号; 2.“旋转”子模块,其利用编码模块的控制信号处理任务输入(称为“旋转”子模块,因为它在功能上等同于在高维空间中旋转特征向量)。

如果CDP模块与OWM算法结合使用,则神经网络仅需要一个分类器来连续学习40种不同面部特征的识别任务。此外,当出现不同的提示信号时,它们对相应的特征做出判断,其效果等同于引入40个分类器的情况。

通过OWM算法,可以有效克服灾难性遗忘,通过CDP模块在单个网络中实现基于情境信号的多任务学习。预计两者的结合将使代理人能够通过不断学习适应复杂多变的环境,从而逐渐接近更高水平的智能。

OWM算法示意图。 (a)当更新:的权重时,OWM算法仅保留传统BP算法计算的权重增量的正交部分和历史任务的输入空间。 (b)在新任务:中,OWM算法约束旧任务的解空间中神经网络解的搜索范围。

在连续学习MNIST手写数字0-9的任务中,随着任务数量的增加,OWM算法的优势越来越明显。同时,任务的学习顺序将对个别任务产生影响。如果您首先学习数字4和7,它将显着提高数字9的识别准确度。

OWM算法在ImageNet和中文手写汉字识别的连续学习任务上表现出色。

对于相同的输入,相同的分类器连续学习40个不同的面部属性分类任务(蓝色数据点),并且精度几乎与使用40个分类器(橙色线)的系统相同。

中国科学院自动化研究所

收集报告投诉

中国科学院自动化研究所脑网络研究中心和模式识别国家重点实验室团队提出了正交权重修正算法,结合情景信息处理模块,使人工神经网络具有较强的应用能力。持续学习和情境依赖学习,有效地解决了灾难性遗忘问题。相关结果已在Nature Machine Intelligence上在线发表。

人工智能已经成为21世纪最具挑战性的前沿科学之一,但究竟什么是“智能”?可以肯定的是,个人对复杂和动态环境的高适应性是智力的重要指标。

人脑显然是高环境适应性的典范。人们不仅可以在新环境中吸收新知识,还可以根据不同的环境灵活调整自己的行为。在这方面,深度神经网络(DNN)和大脑之间存在很大差距。传统的DNN受到“灾难性遗忘”问题的困扰。在保留旧知识的同时,很难学习新知识,即缺乏持续学习的能力。另一方面,DNN只能实现预训练。固定操作不能在实际环境中灵活地响应情境信息(例如他们自己的状态,环境变化,任务变化等),并且难以满足复杂和不断变化的需求,即缺乏上下文 - 依赖学习。缺乏这两种能力是制约DNN当前高级智能发展的重要瓶颈。

近日,自动化脑网络研究中心和玉山集团模式识别国家重点实验室在克服上述两个核心问题方面取得了新的进展,并提出了提高人工智能系统对复杂多变环境适应性的新思路。和程序。在“神经网络上下文依赖处理的持续学习”一书中,硕士研究生曾冠雄,博士后陈阳等。提出的正交权重修改(OWM)算法和上下文相关处理(CDP)模块。 OWM算法可以有效地克服神经网络中的灾难遗忘,实现连续学习。受大脑前额叶皮层启发的CDP模块可以有效地整合情境信息并调节神经网络的信息处理过程。两者的有效结合使人工神经网络具有强大的连续学习和依赖于上下文的学习能力,大大提高了其灵活性和适应性。

OWM算法的核心思想是:在学习新任务时,仅在与旧任务输入空间正交的方向上修改神经网络权重。这样,权重增量几乎不影响前一任务的输入,从而保证了在新任务训练过程中网络搜索到的解决方案仍然在前一任务的解空间中。 OWM通过使用由正交投影算子P和误差反向传播算法获得的加权增量ΔWBP来实现其目的,即,最终权重增量是ΔW=κPΔWBP。

OWM算法实现了对网络现有知识的有效保护,与现有的梯度反向传播算法完全兼容,在连续学习测试任务中表现出良好的性能。在连续学习不相交的mnist和无序mnist任务的标准任务中,owm算法优于其他同类算法。而且,随着所学任务数量的增加,OWM算法的性能优势将进一步增加。利用OWM算法,神经网络可以连续学习识别IMAGENET的1000种图片和3755个手写汉字(每个任务只训练一种图片或一个汉字)。值得一提的是,该算法具有良好的小样本学习能力。以手写体汉字识别为例,在预先训练好的特征抽取器的基础上,系统只需几个正样本就可以连续学习新的汉字。

CDP模块的设计灵感来自前额皮质。前额叶是负责大脑认知控制的核心皮层。它同时接收感官输入和上下文信号,并选择与当前任务最相关的感官信号来指导输出响应。在此基础上,介绍了一种类似的处理体系结构0X1772 CDP模块,包括两个子模块:1。编码子模块,负责将上下文信息编码成适当的控制信号;“旋转”子模块,它利用编码模块的控制信号处理任务输入(称为“旋转”子模块,因为其功能相当于在高维空间中旋转特征向量)。

如果将CDP模块与OWM算法结合使用,神经网络只需要一个分类器就可以连续学习40种不同面部特征的识别任务。另外,当出现不同的提示信号时,对相应的特征进行判断,其效果相当于引入40个分类器的情况。

OWM算法有效地克服了灾难性遗忘,并通过CDP模块在单个网络中实现了基于上下文信号的多任务学习。预计两者的结合将使智能体通过不断学习适应复杂多变的环境,从而逐步接近更高水平。情报。

OWM算法的示意图。 (a):当权重更新时,OWM算法仅保留由传统BP算法计算的与历史任务输入空间正交的权重增量部分。 (b):在新任务中,OWM算法将解决方案的搜索范围限制在旧任务的解空间中的神经网络。

在不断学习MNIST手写数字0-9的任务中,随着任务数量的增加,OWM算法的优势变得越来越明显。同时,学习任务的顺序可能会对个别任务产生影响。如果您学习数字4和7,您将显着提高数字9的识别准确度。

OWM算法在ImageNet和中文手写汉字识别的连续学习任务中表现出优异的性能

同一分类器连续学习同一输入的40个不同面部属性的分类任务(蓝色数据点),正确率与具有40个分类器(橙色线)的系统的正确率几乎相同。

中国科学院自动化研究所

热门浏览
热门排行榜
热门标签
日期归档