Skip to content

19 · RAG · 检索引经之道


一、它解决什么问题?

模型的训练知识有截止日期。 训练完成后,世界继续变化,模型不知道。 2024年发生的事,2023年训练的模型不知道。 企业内部文件,模型从来没见过。

二、RAG 怎么工作?

用户提问 ↓ ① 检索器在外部知识库里搜索相关内容 ↓ ② 把检索到的内容塞进 Context Window ↓ ③ 模型结合检索内容 + 训练知识生成回答 ↓ 输出答案

三、RAG 的三个核心组件

组件作用
知识库存放外部文档(PDF、网页、数据库…)
检索器根据问题找到最相关的片段
生成器就是模型本身,结合检索结果生成答案

四、RAG vs 直接问模型

直接问模型RAG
知识来源训练权重(固定)训练权重 + 实时检索
知识时效有截止日期实时更新
企业私有数据❌ 不知道✅ 可以检索
幻觉风险较高较低(有来源可查)

五、为什么 RAG 是企业落地的核心方案?

企业不可能每次有新文件就重新训练模型, 成本太高,周期太长。 RAG 的思路是:

六、易经映射

不是靠记忆里的旧知识断卦, 而是临场翻查相关典籍, 再结合当下卦象给出判断。

七、局限性

  • ● 检索质量决定回答质量:垃圾进,垃圾出
  • ● 知识库的建设和维护需要成本
  • ● 检索到的内容太长,可能撑爆 Context Window

补充学习:生活化类比理解

RAG其实就是开卷考试

  • 普通模型答题 = 闭卷考试,只能用脑子里记住的知识,过时的不知道,没见过的答不对
  • RAG答题 = 开卷考试,可以随时翻书查资料,然后结合自己的理解组织答案,准确又灵活

补充学习:RAG的常见实现级别

级别特点适用场景
基础版RAG检索→塞上下文→生成,最常用的流程绝大多数通用场景
进阶版RAG检索后先重排序,把最相关的内容放前面,或做摘要精简内容较长、需要更高准确率的场景
智能版RAG自动判断要不要检索:简单问题直接回答,复杂问题才检索高并发、需要降低成本的ToC产品

补充学习:身边常见的RAG应用

你每天都可能在接触RAG,只是没意识到:

  1. 电商客服机器人:问产品参数,机器人先查产品说明书,再给你准确回答
  2. 企业内部助手:问公司报销制度,先查员工手册相关章节,再给你讲解
  3. 文档问答工具:上传一本书/合同,问具体条款,机器人先定位到相关页码,再总结回答
  4. 学习助手:问教材知识点,先查对应章节内容,再给你举例子讲解

补充学习:RAG vs 微调 怎么选?

很多人搞不清RAG和微调(Fine-tuning)的区别,一张表讲清楚:

对比项RAG微调
经济成本极低,只需要维护知识库极高,需要GPU算力和大量训练数据
时间成本实时,往知识库加文件立刻生效慢,训练需要几小时到几天不等
知识更新灵活,增删改查知识库就行麻烦,需要重新训练才能更新
回答溯源✅ 可以,知道答案来自哪篇文档哪一页❌ 不行,不知道来自哪个训练数据
适用场景知识经常更新、需要准确可靠的场景需要模型学会新技能、统一风格的场景

简单总结:需要经常更新知识的用RAG,需要模型学会新能力的用微调,90%的企业场景用RAG就足够了。


补充学习:提高RAG效果的实用技巧

不需要懂复杂技术,做好这几点效果就能提升很多:

  1. 知识库拆小块:不要把整本书/整篇文档直接扔进去,拆成1000字以内的短片段,检索更准
  2. 内容要规整:尽量用结构化的文档,避免扫描件、图片这种不可编辑的内容,识别容易出错
  3. 加来源标注:回答的时候标出来答案来自哪篇文档、第几页,可信度更高,出错了也好排查
  4. 定期清旧内容:过时的文档及时删掉,避免检索到过期信息误导回答

补充学习:常见误区澄清

❌ 误区:有了RAG模型就完全不会幻觉了 ✅ 真相:只能大幅降低幻觉风险,如果检索到的内容本身是错的,或者模型理解错了检索内容,还是可能出问题,但比直接问模型靠谱很多。

❌ 误区:RAG检索到的内容越长越好 ✅ 真相:太长的内容反而会让模型"注意力分散",找不到重点,3-5段高度相关的短内容效果远好于一整篇长文档。

❌ 误区:RAG很难,普通人用不了 ✅ 真相:现在有很多现成的零代码RAG工具,上传文档就能生成问答机器人,不懂技术也能快速搭建自己的知识库助手。