卡片召唤师
精华
|
战斗力 鹅
|
帖子
注册时间 2023-4-5
|
RippleEdits
评估语言模型中知识编辑的连锁效应
github项目仓库:https://github.com/edenbiran/RippleEdits/
现代语言模型以庞大的大小捕获了大量事实知识,然而随着时间的推移,一些事实可能会被错误地归纳或变得过时,从而导致事实上不正确的生成结果,这导致了各种知识编辑方法的发展,这些方法允许更新模型已经编码在参数内的事实
对这些方法的评估主要集中于测试单个事实是否已成功注入,以及对其他受测试的类似预测是否改变,这种评估实际上是有限的,因为注入一个事实后,会以模型需要更新其他事实的形式引入“连锁效应(Ripple Effects)”
为了解决这个问题,本文提出了一套新颖的评估标准,考虑了编辑对相关事实的影响,然后使用这些标准构建了ripple,一个基于5K事实编辑的判断基准,可以捕获各种类型的连锁效应
在ripple上评估了各种知识编辑方法,表明当前方法未能在模型知识中引入一致变化,此外,还发现了一个简单的上下文编辑基线在基准测试中获得了最好的分数,这表明了当前模型知识编辑的一个有前途的研究方向
与现有知识编辑基准相比,RippleEdits的评估范围图示,对于给定的事实编辑,需要考虑编辑对于模型知识的“连锁效应”
6个评估标准的测试示例,编辑自身模拟为向实体prince添加节点(sibling),并在每个条件的顶部显示一个粗体箭头,在节点关系上显示一个编辑符号
对于每个测试,输入主题显示为蓝色,目标对象显示为绿色,其他节点显示为橙色,边的颜色源自其目标节点
对于Logical Generalization,需要插入知识图谱的附加事实,在关系旁边显示有编辑符号
对于Compositions I和Composition II,模型需要跳过编辑才能到达目标
在Subject Aliasing中,验证编辑是否也会传播到输入的释义
在Forgetfulness中,验证在必要关系中共享输入主题和关系的其他目标,会不会被遗忘
在Relation Specificity中,验证主题的其他关系有没有被修改
为以下修改编辑生成RippleEdits测试的图示:(Bill Gates, Spouse, Melinda Gates) → (Bill Gates, Spouse, Ricciarda Cybo Malaspina)
首先从知识图谱中采样原始事实,对于修改编辑,通过选择与原始对象共享相同类型的对象来创建反事实修改,主要步骤为通过使用知识图谱和采样应保留或修改的新三元组来生成评估测试,进行后期编辑,最后利用预定义的模板将知识图谱三元组翻译为自然语言短语
相关评估结果:
—— 来自 S1Fun |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
|