最新文獻綜述:LLM 可控文本生成

經過一年多的發展大模型已融入了我們的日常工作中,但是大模型經常會輸出一些不符合約束的結果,本文將給出一份詳盡的指南,介紹如何管理和指導大型語言模型(LLM)進行文本生成的各類技術和方法,着重於理論支撐與實踐操作。

大模型可控文本生成 (CTG)綜述

可控文本生成的概述

可控文本生成(CTG)需實現兩大核心目標:

與大語言模型中的可控生成相關的 Web of Science 上的出版趨勢

大型語言模型(LLMs)的可控性維度和能力維度

可控文本生成的形式化定義

可控文本生成(CTG)的定義概述如下:

可控文本生成任務

對可控文本生成(CTG)的任務進行了分類,主要分爲以下兩個大類:

  1. 內容控制(Content Control):也稱爲語言學控制或硬控制,專注於生成文本的具體元素,如文本的結構和詞彙。這種類型的控制要求模型根據預定義的規則精確生成文本內容。內容控制包括:
  1. 屬性控制(Attribute Control):也稱爲語義控制或軟控制,關注文本的抽象語言屬性,如情感、風格和主題。這種類型的控制旨在確保生成的文本在更高層次上反映特定的語義特徵。屬性控制包括:
  1. 可控文本生成方法分類

干預階段、控制方法、特定方法和示例方法的分類

可控文本生成(CTG)方法分類:

CTG 中條件的注入

可控文本生成(CTG)的方法主要分爲兩個階段訓練階段和推理階段

可控文本生成方法的分類

訓練階段方法

  1. 重訓練(Retraining):從頭開始訓練新模型或對現有模型架構進行根本性修改,以更好地適應特定的控制條件。這通常在現有預訓練模型無法滿足新要求時採用。

  2. 微調(Fine-Tuning):通過使用專門設計的小型數據集來調整預訓練模型,使其更好地符合特定的控制屬性,而無需從頭開始訓練模型。

  3. 強化學習(Reinforcement Learning):使用獎勵信號來引導模型輸出朝向特定的控制目標。通過迭代優化,模型學習使其輸出與這些目標對齊。

推理階段方法

  1. 提示工程(Prompt Engineering):在推理階段,通過設計特定的輸入提示來直接影響文本生成,而無需對模型參數進行廣泛調整。

  2. 潛在空間操作(Latent Space Manipulation):通過調整模型隱藏層中的激活狀態來控制生成的文本,允許在不改變模型權重的情況下精確控制文本生成過程。

  3. 解碼時干預(Decoding-time Intervention):在解碼過程中修改生成輸出的概率分佈或應用特定規則,以影響單詞選擇,確保輸出與特定控制條件對齊。

具體方法示例

Controllable Text Generation for Large Language Models: A Survey
https://arxiv.org/pdf/2408.12599
https://github.com/IAAR-Shanghai/CTGSurvey
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/hIMDIGo7Ah3J1AM-orqiiA