19 · RAG · 检索引经之道
一、它解决什么问题?
模型的训练知识有截止日期。 训练完成后,世界继续变化,模型不知道。 2024年发生的事,2023年训练的模型不知道。 企业内部文件,模型从来没见过。
二、RAG 怎么工作?
用户提问 ↓ ① 检索器在外部知识库里搜索相关内容 ↓ ② 把检索到的内容塞进 Context Window ↓ ③ 模型结合检索内容 + 训练知识生成回答 ↓ 输出答案
三、RAG 的三个核心组件
| 组件 | 作用 |
|---|---|
| 知识库 | 存放外部文档(PDF、网页、数据库…) |
| 检索器 | 根据问题找到最相关的片段 |
| 生成器 | 就是模型本身,结合检索结果生成答案 |
四、RAG vs 直接问模型
| 直接问模型 | RAG | |
|---|---|---|
| 知识来源 | 训练权重(固定) | 训练权重 + 实时检索 |
| 知识时效 | 有截止日期 | 实时更新 |
| 企业私有数据 | ❌ 不知道 | ✅ 可以检索 |
| 幻觉风险 | 较高 | 较低(有来源可查) |
五、为什么 RAG 是企业落地的核心方案?
企业不可能每次有新文件就重新训练模型, 成本太高,周期太长。 RAG 的思路是:
六、易经映射
不是靠记忆里的旧知识断卦, 而是临场翻查相关典籍, 再结合当下卦象给出判断。
七、局限性
- ● 检索质量决定回答质量:垃圾进,垃圾出
- ● 知识库的建设和维护需要成本
- ● 检索到的内容太长,可能撑爆 Context Window
补充学习:生活化类比理解
RAG其实就是开卷考试:
- 普通模型答题 = 闭卷考试,只能用脑子里记住的知识,过时的不知道,没见过的答不对
- RAG答题 = 开卷考试,可以随时翻书查资料,然后结合自己的理解组织答案,准确又灵活
补充学习:RAG的常见实现级别
| 级别 | 特点 | 适用场景 |
|---|---|---|
| 基础版RAG | 检索→塞上下文→生成,最常用的流程 | 绝大多数通用场景 |
| 进阶版RAG | 检索后先重排序,把最相关的内容放前面,或做摘要精简 | 内容较长、需要更高准确率的场景 |
| 智能版RAG | 自动判断要不要检索:简单问题直接回答,复杂问题才检索 | 高并发、需要降低成本的ToC产品 |
补充学习:身边常见的RAG应用
你每天都可能在接触RAG,只是没意识到:
- 电商客服机器人:问产品参数,机器人先查产品说明书,再给你准确回答
- 企业内部助手:问公司报销制度,先查员工手册相关章节,再给你讲解
- 文档问答工具:上传一本书/合同,问具体条款,机器人先定位到相关页码,再总结回答
- 学习助手:问教材知识点,先查对应章节内容,再给你举例子讲解
补充学习:RAG vs 微调 怎么选?
很多人搞不清RAG和微调(Fine-tuning)的区别,一张表讲清楚:
| 对比项 | RAG | 微调 |
|---|---|---|
| 经济成本 | 极低,只需要维护知识库 | 极高,需要GPU算力和大量训练数据 |
| 时间成本 | 实时,往知识库加文件立刻生效 | 慢,训练需要几小时到几天不等 |
| 知识更新 | 灵活,增删改查知识库就行 | 麻烦,需要重新训练才能更新 |
| 回答溯源 | ✅ 可以,知道答案来自哪篇文档哪一页 | ❌ 不行,不知道来自哪个训练数据 |
| 适用场景 | 知识经常更新、需要准确可靠的场景 | 需要模型学会新技能、统一风格的场景 |
简单总结:需要经常更新知识的用RAG,需要模型学会新能力的用微调,90%的企业场景用RAG就足够了。
补充学习:提高RAG效果的实用技巧
不需要懂复杂技术,做好这几点效果就能提升很多:
- 知识库拆小块:不要把整本书/整篇文档直接扔进去,拆成1000字以内的短片段,检索更准
- 内容要规整:尽量用结构化的文档,避免扫描件、图片这种不可编辑的内容,识别容易出错
- 加来源标注:回答的时候标出来答案来自哪篇文档、第几页,可信度更高,出错了也好排查
- 定期清旧内容:过时的文档及时删掉,避免检索到过期信息误导回答
补充学习:常见误区澄清
❌ 误区:有了RAG模型就完全不会幻觉了 ✅ 真相:只能大幅降低幻觉风险,如果检索到的内容本身是错的,或者模型理解错了检索内容,还是可能出问题,但比直接问模型靠谱很多。
❌ 误区:RAG检索到的内容越长越好 ✅ 真相:太长的内容反而会让模型"注意力分散",找不到重点,3-5段高度相关的短内容效果远好于一整篇长文档。
❌ 误区:RAG很难,普通人用不了 ✅ 真相:现在有很多现成的零代码RAG工具,上传文档就能生成问答机器人,不懂技术也能快速搭建自己的知识库助手。