斯坦福大学的研究人员开发了一种名为“MEND for fast model editing at scale”的人工智能 (AI) 方法
大型模型的性能在各种计算机视觉问题上得到了改进,尤其是自然语言处理。 如果您必须在部署后发布补丁,则很难部署和维护此类模型。 由于模型的分布式特性,当少量或单个输入导致不良结果时,很难进行局部更改以使神经网络正确运行。 出现提示时,2019 年训练的大型语言模型可能会将更大的概率分配给 Theresa May 而不是 Boris Johnson。 英国 (UK) 首相的名字是什么?
理想的模型编辑程序将允许您快速更新模型参数以增加鲍里斯约翰逊的相对概率,同时不改变其他输入的输出。 这将产生可靠的编辑,改变模型在有问题的输入上的输出,例如 英国首相是谁。 局部性:影响模型对不相关输入的输出,例如哪个运动队踢梅西? 通用性是当模型为与编辑输入相关的输入生成正确输出时(例如,谁是英国首相?)通过使用标签微调示例很容易进行此类编辑。 微调单个示例往往会导致过度拟合,即使微调前后的距离很小。
过度拟合会导致局部性和通用性失败。 他们的实验表明,虽然使用正在进行的示例对编辑集进行微调和训练可以提高局部性,但仍然需要更高的通用性。 它还需要在测试期间连续访问所有训练集,这对计算要求更高。 作为替代方案,最近的研究检查了学习如何编辑模型的方法。 研究人员提出了一个元学习双层目标来确定模型初始化,其中单个编辑示例的标准微调会产生有价值的修改。
来源和详细信息: