Diversify Question Generation with Retrieval-Augmented Style Transfer

https://papers.cool/arxiv/2310.14503

Authors: Qi Gou ; Zehua Xia ; Bowen Yu ; Haiyang Yu ; Fei Huang ; Yongbin Li ; Nguyen Cam-Tu

Summary: Given a textual passage and an answer, humans are able to ask questions with various expressions, but this ability is still challenging for most question generation (QG) systems. Existing solutions mainly focus on the internal knowledge within the given passage or the semantic word space for diverse content planning. These methods, however, have not considered the potential of external knowledge for expression diversity. To bridge this gap, we propose RAST, a framework for Retrieval-Augmented Style Transfer, where the objective is to utilize the style of diverse templates for question generation. For training RAST, we develop a novel Reinforcement Learning (RL) based approach that maximizes a weighted combination of diversity reward and consistency reward. Here, the consistency reward is computed by a Question-Answering (QA) model, whereas the diversity reward measures how much the final output mimics the retrieved template. Experimental results show that our method outperforms previous diversity-driven baselines on diversity while being comparable in terms of consistency scores. Our code is available at https://github.com/gouqi666/RAST.


Q: 这篇论文试图解决什么问题?

A: 这篇论文试图解决的问题是提高问题生成(Question Generation, QG)系统的多样性。在给定文本段落和答案的情况下,人类能够用多种不同的表达方式提出问题,但大多数现有的QG系统在生成多样化问题方面仍然面临挑战。现有的解决方案主要集中在利用给定段落内的内部知识或语义词空间进行多样化内容规划,但这些方法没有考虑外部知识对表达多样性的潜力。为了弥补这一差距,论文提出了一个名为RAST(Retrieval-Augmented Style Transfer)的框架,旨在利用多样化模板的风格来生成问题。通过这种方式,RAST旨在生成具有不同表达方式的问题,同时保持问题的一致性和相关性。

Q: 有哪些相关研究?

A: 相关研究可以分为几个主要类别:

  1. 早期的QG方法:早期的QG尝试是基于规则的(如Kunichika et al., 2004; Mostow and Wei, 2009),这些方法通常不够灵活且劳动密集。此外,这些方法无法从更大的上下文中生成问题。
  2. 基于序列到序列的方法:随着深度学习的发展,基于序列到序列(Seq2Seq)的方法(如Du et al., 2017; Kumar et al., 2019)开始克服这些问题,取得了更好的结果。
  3. 预训练语言模型(PLM):最近,基于预训练语言模型的微调方法(如Dong et al., 2019; Qi et al., 2020)在QG任务上取得了显著的改进。
  4. 多样性驱动的方法:这些方法主要分为两类,一类是利用内部知识,如内容选择(Cho et al., 2019; Shen et al., 2019; Wang et al., 2020b)和改进的解码(Fan et al., 2018a; Narayan et al., 2022a),另一类是利用外部模式(Deschamps et al., 2021; Cao and Wang, 2021)。本文的工作属于后者,但尝试在没有问题重写样本的情况下进行。
  5. 检索增强的生成方法:这些方法将检索模型(如Wu et al., 2019; Cai et al., 2019a,b)与参数化语言模型结合,用于文本生成。这些研究通常关注一致性,而不是多样性。
  6. 强化学习在生成中的应用:强化学习(RL)被用于文本生成,以缓解标准监督学习方法中的曝光偏差问题(如Liu et al., 2020; Wang et al., 2020a; Chen et al., 2020)。
  7. 文本风格转换:文本风格转换研究(Li et al., 2018; Xu et al., 2018; Hu et al., 2022)与本文的目标有相似之处,但本文没有预定义的风格标签,而是依赖于外部问题模板的风格。
  8. 释义生成:释义涉及将自然语言句子转换为具有相同语义意义但不同句法或词汇表面形式的新句子(如He et al., 2020; Goyal and Durrett, 2020; Hosking et al., 2022)。尽管通过释义可以增加生成问题的多样性,但本文的设置与这些研究有所不同。

这些相关研究为本文提出的RAST框架提供了背景和对比,展示了在QG领域中多样性和一致性之间平衡的不同尝试和方法。

Q: 论文如何解决这个问题?

A: 论文通过提出一个名为RAST(Retrieval-Augmented Style Transfer)的框架来解决这个问题,该框架包含以下几个关键组件和步骤: