提示工程、RAGs 与微调的对比 [译]
这篇关于提示工程、RAGs 与微调对比的推文不错,它这个坐标图分成了两个坐标轴:
- 所需要外部知识多少
- 所需要的对模型定制的多少
原推文翻译如下:
提示工程、RAGs 与微调的对比:
这是每位搭建基于大语言模型(LLM)应用的 AI 工程师都面临的关键选择。
要理解这个决策的指导原则,我们首先得明白这些术语的含义。
1️⃣ 提示工程:
所谓提示,指的是你输入的文本,大语言模型就根据这个输入来生成回应。
这实际上是一种精确的输入方法,旨在引导模型产生相应的输出。
模型的输出将基于其已有的知识。
2️⃣ RAGs(检索增强生成):
当你将提示工程与数据库查询结合,以获得含丰富上下文的答案时,这就是所谓的 RAG。
生成的输出将基于数据库中现有的知识。
3️⃣ 微调:
微调是指使用特定任务的数据调整大语言模型的参数,使其在某一领域内专业化。
比如,一个语言模型可以在医学文献上进行微调,从而更擅长回答健康护理相关的问题。
这就好比对一位已经技艺娴熟的工人进行额外培训,让他们在特定领域成为专家。
那么,我们如何决定采取哪种方法呢?
(阅读下文时请参考下面的图片)
❗️ 有两个关键的指导参数,一个是对外部知识的需求,另一个是模型适应性的需求。
❗️ 尽管前者的含义较为明确,模型适应性则意味着改变模型的行为、词汇、写作风格等。
例如,一个预训练的大语言模型可能在总结公司会议记录时遇到挑战,因为会议中可能穿插了一些特定的内部术语。
🔹 因此,微调更多的是关于改变结构(行为)而非知识,而对于 RAGs 则正好相反。
🔸 当你需要生成基于定制知识库的输出,同时保持大语言模型的词汇和写作风格不变时,你可以选择使用 RAGs。
🔹 如果你不需要上述任一功能,那么提示工程就是你的选择。
🔸 如果你的应用既需要定制知识又需要改变模型的行为,那么采用混合方案(RAGs + 微调)将是更佳选择。