提示工程、RAGs 与微调的对比 [译]

提示工程、RAGs 与微调的对比 [译]

这篇关于提示工程、RAGs 与微调对比的推文不错,它这个坐标图分成了两个坐标轴:

  1. 所需要外部知识多少
  2. 所需要的对模型定制的多少

原推文翻译如下:

提示工程、RAGs 与微调的对比:

这是每位搭建基于大语言模型(LLM)应用的 AI 工程师都面临的关键选择。

要理解这个决策的指导原则,我们首先得明白这些术语的含义。

1️⃣ 提示工程:

所谓提示,指的是你输入的文本,大语言模型就根据这个输入来生成回应。

这实际上是一种精确的输入方法,旨在引导模型产生相应的输出。

模型的输出将基于其已有的知识。

2️⃣ RAGs(检索增强生成):

当你将提示工程与数据库查询结合,以获得含丰富上下文的答案时,这就是所谓的 RAG。

生成的输出将基于数据库中现有的知识。

3️⃣ 微调:

微调是指使用特定任务的数据调整大语言模型的参数,使其在某一领域内专业化。

比如,一个语言模型可以在医学文献上进行微调,从而更擅长回答健康护理相关的问题。

这就好比对一位已经技艺娴熟的工人进行额外培训,让他们在特定领域成为专家。

那么,我们如何决定采取哪种方法呢?

(阅读下文时请参考下面的图片)

❗️ 有两个关键的指导参数,一个是对外部知识的需求,另一个是模型适应性的需求。

❗️ 尽管前者的含义较为明确,模型适应性则意味着改变模型的行为、词汇、写作风格等。

例如,一个预训练的大语言模型可能在总结公司会议记录时遇到挑战,因为会议中可能穿插了一些特定的内部术语。

🔹 因此,微调更多的是关于改变结构(行为)而非知识,而对于 RAGs 则正好相反。

🔸 当你需要生成基于定制知识库的输出,同时保持大语言模型的词汇和写作风格不变时,你可以选择使用 RAGs。

🔹 如果你不需要上述任一功能,那么提示工程就是你的选择。

🔸 如果你的应用既需要定制知识又需要改变模型的行为,那么采用混合方案(RAGs + 微调)将是更佳选择。