持续学习
上一节
下一节
《Loss of plastisity in deep continual learning》,2024,Nature
持续反向传播(Continual Backpropagation),该算法通过在每次迭代中随机重置一小部分较少使用的神经元来保持网络的塑性。这种方法通过不断引入多样性来维持网络的塑性和可变性,对于持续深度学习领域来说是一个重大突破。
作者Richard Sutton,“强化学习之父”。
持续学习方法
标准深度学习方法:使用经典的ImageNet数据集和强化学习问题来展示深度学习在持续学习设置中的塑性逐渐丧失。
持续反向传播算法(Continual Backpropagation):一种变化的反向传播算法,通过持续随机重新初始化一小部分使用较少的单元来维持网络的多样性和塑性。
损失塑性测试:通过在多个任务上训练和评估网络,测量网络在新任务上的学习能力,以评估塑性损失。

