斯坦福大学和微软的研究人员提出了一种人工智能 (AI),它使用声明性语句作为对存在错误的神经模型的纠正反馈。
今天用于修复 NLP 模型中的系统问题的方法可能脆弱、耗时或容易走捷径。 另一方面,人类经常使用自然语言互相批评。 最近的研究集中在自然语言补丁的使用上。 这些是声明性语句,使开发人员能够通过修改模型或添加缺失信息来提供纠正性反馈。
越来越多的研究使用语言而不是标记示例来为模型提供指导、监督甚至归纳偏差。 示例包括使用语言描述构建神经表征(Andreas,2018;Mu,2020,Murty,2020)或基于语言的零样本学习(Brown,2020,Hanjie,2022,Chen,2021)。 当用户为了改进模型而与模型交互时,语言没有被正确使用。
神经语言修补模型有两个头。 门控负责人确定是否需要补丁,解释器根据补丁中包含的信息预测结果。 该模型分两个阶段开发:第一步涉及带有标签的数据集,第二阶段是针对特定任务的调整。 在微调的第二步中,一组模板补丁用于创建综合标记的样本和补丁。
来源和详细信息: