本文共 1600 字,大约阅读时间需要 5 分钟。
作者:孙嘉伟
单位:燕山大学
目录
一
二
1.常见的QA模型在回答问题时依赖于所使用的训练数据集,而在所提供的数据集当中有些信息可能会随着时间的推移发生改变,这就会导致模型输出错误的结果。
2.与此同时,有监督的QA模型在对抗性样本(adversarial example)、域外样本(domain shift、out of domain)和含有偏见(bias)的样本上表现很差。
3.阅读理解任务需要大规模标注,成本较高。
为了摆脱上述监督学习方式训练QA模型所带来的问题,作者提出了一种无监督方法“test-time learning” (TTL)来完成阅读理解任务。让模型在进测试(预测)时根据问题的context上下文,通过自我监督的形式合成训练所需要的问答对,从而进行无监督式的学习,省去了在训练集上的训练过程。
该篇文章研究的仍然是抽取式阅读理解任务,损失函数是答案片段的起始和终止位置的交叉熵损失函数。不同于之前使用标注数据集训练的形式,该方法(框架)使用测试时的文本内容context自动生成问答对,然后使用生成的问答对训练模型。又根据训练的方式不同,分为以下四种方法:
(1) Single-Context Test-Time RC 给定上下文,模型生成问答并进行训练。
(2) K-neighbor Test-Time RC ——通过为每个测试上下文检索 top-K 个相关上下文,其他部分与(1)相同。
(3) Curriculum Test-Time RC.——生成方式与(1)中相同,但按照复杂性递增的顺序学习问题类型。
(4) Online Test-Time RC.——对每个传入的测试样本按顺序依次微调模型参数。
TTL框架的整体流程如下图:
生成问答对的所用到的模型:named-entity recognition from Spacy、dependency parsing from Berkeley Neural Parser、semantic role labeling
(1).保留答案的右子节点,修剪左子节点。
(2).对于解析树的每个节点,如果子节点的子树包含答案,则子节点将移动到第一个子节点。
(3).对重构树进行有序遍历。采用基于规则的映射,将完形填空的特殊掩码标记替换为适当的Wh-word。
4.问答语义角色标记,例子如下:
使用SQuAD1.1和NewsQA,在BERTLarge trained with wholeword masking和DistilBERT来验证模型效果
作者比较了其他无监督方法和论文所提出方法在两个数据集上的EM 和F1值:
同时还进行了消融实验,比较出了4种训练方法对模型最终效果的比较:
少样本(few-shot)情况下模型表现效果:
提出了Test-time-learning(TTL),一种无监督抽取式问答的训练框架。并根据训练和上下文扩展方法的不同给出了TTL的四个变体,其中使用K-neighboring contexts of the test context方法效果最好。使用四种问答对生成方法进行无监督的抽取式阅读理解模型训练,其中使用QA-SRL作为问答对的生成方法效果最好。文中还比较了大模型(BERT-large)和小模型(DistilBERT)的效果,结果显示两者之间差距不大。
论文地址:
转载地址:http://yemgi.baihongyu.com/