InA: 在预训练语言模型上的抑制自适应方法
InA: 在预训练语言模型上的抑制自适应方法 预训练语言模型(Language Models, LMs)已经在自然语言处理(Natural Language Processing, NLP)任务中取得了显著的效果。然而,传统的微调方法存在冗余参数的问题,影响了效率和效果。为了应对这一挑战,本文提出了一种称为抑制自适应(Inhibition Adaptation, INA)的微调方法,用以减少添加的可调权重,并适当地再权重来自预训练语言模型的知识。 研究背景和问题 当前,微调预训练语言模型是一种常见的解决NLP下游任务的方法。然而,经典的微调方法需要更新所有的模型参数,这会导致冗余参数问题,尤其是当应用于新的下游任务时。冗余参数不仅影响模型的效率,还会阻碍模型性能的提升。为了解决这一问题,已有...