Paper Reading 7 LLM-RAG(Retrieval-Augmented Generation)-survey

2024/11/27 Paper Reading RAG LLM survey 共 10229 字,约 30 分钟

Paper Reading 7 LLM- RAG(Retrieval-Augmented Generation)-survey

论文信息

Retrieval-Augmented Generation for Large Language Models: A Survey

AI总结

以下是论文分析和总结的中文版本:


范围和背景

论文围绕大语言模型(LLMs)在实际应用中面临的挑战展开,包括幻觉(hallucination)、知识过时、推理过程不透明等问题。提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为解决方案,通过引入外部知识库来增强生成质量,特别适用于知识密集型任务领域特定任务,从而提高模型的准确性和可信度。


核心思想

RAG结合了LLMs的内部参数化知识动态外部数据库,构建了一个协同框架。论文将RAG技术划分为三种范式:

  1. 基础RAG(Naive RAG):传统的“检索-阅读”模式。
  2. 高级RAG(Advanced RAG):通过优化索引和检索后处理来提升性能。
  3. 模块化RAG(Modular RAG):引入模块化设计以适应多样化应用场景。

方法论

论文通过三个核心阶段对RAG系统进行详细分析:

  1. 检索(Retrieval):探索高效检索外部数据的方法,包括索引优化、嵌入模型和查询增强等。
  2. 生成(Generation):研究如何将检索到的内容与语言模型结合以生成高质量回答。
  3. 增强(Augmentation):提出迭代检索、自适应检索等高级工作流程,以应对复杂任务。

同时,文章还提出了一套评价框架和基准,重点衡量RAG的检索质量、生成能力和鲁棒性。


贡献

  1. 技术整合:系统地总结了RAG领域的最新技术,包括检索、生成和增强的前沿方法。
  2. 评价框架:提出了适用于RAG系统的评价指标和基准,涵盖准确性、上下文相关性、回答可信度等方面。
  3. 挑战与未来方向:指出了当前研究的不足,包括对误导性信息的鲁棒性处理、与长上下文模型的结合、以及多模态数据的整合。

创新与差异

与其他方法相比,RAG的独特性体现在:

  • 能动态适应并集成外部知识源,而非依赖静态微调。
  • 模块化设计使其能够针对任务需求进行优化,例如结合稀疏与密集检索技术。
  • 降低幻觉现象并提高生成内容的事实性,显著提升模型的实际应用能力。

结果与结论

论文总结认为,RAG是扩展LLMs能力的重要途径,尤其在以下方面表现突出:

  1. 实时更新知识
  2. 解决领域特定挑战
  3. 通过模块化设计应对复杂任务。

论文还强调了未来研究的必要性,如鲁棒性改进工程效率优化、以及多模态扩展


与其他方法的对比

  • RAG:高度动态且可扩展,适用于实时知识更新和知识密集型任务。
  • 微调(Fine-Tuning):适合特定任务但计算成本高,且更新能力有限。
  • 提示工程(Prompt Engineering):依赖模型内在能力,外部知识利用有限。

讨论

文章预期RAG未来的发展方向包括:

  1. 自适应检索:提高效率和相关性。
  2. 多模态扩展:整合图像、视频、音频等多模态数据。
  3. 评价框架改进:设计更全面的评估方法以捕捉RAG模型的能力。

文中主要图表

image-20241129083921337

image-20241129085439271

image-20241129085513842

image-20241129152937281

image-20241129153534591

AI 问答

问题一 文中提到的衡量指标有哪些?

image-20241129084048592

以下是表中各评估指标的计算公式含义及其解释


1. 上下文相关性

Accuracy(准确率)

  • 公式: Accuracy=正确检索或生成的数量总测试数量

    \[Accuracy = \frac{\text{正确检索或生成的数量}}{\text{总测试数量}}\]
  • 含义:衡量系统整体表现的简单指标,表示检索或生成任务的正确性比例。

  • 解释:例如,在检索任务中,返回的文档与问题相关的情况越多,Accuracy 越高。适合衡量单次任务结果的全局表现。


Recall(召回率)

  • 公式: Recall=正确检索的相关文档数量问题中所有相关文档数量

    \[Recall = \frac{\text{正确检索的相关文档数量}}{\text{问题中所有相关文档数量}}\]
  • 含义:表示检索模块覆盖相关内容的能力,关注信息的全面性。

  • 解释:在问答系统中,召回率高意味着检索模块尽量减少遗漏,但可能会增加噪声文档。


Precision(精确率)

  • 公式: Precision=正确检索的相关文档数量检索到的文档总数量
\[Precision = \frac{\text{正确检索的相关文档数量}}{\text{检索到的文档总数量}}\]
  • 含义:检索内容的纯度,表示系统返回的内容中有多少是相关的。
  • 解释:精确率高的系统通常在高相关性任务中表现更佳,但可能忽略部分边缘内容。

Cosine Similarity(余弦相似度)

  • 公式

  • \[Cosine Similarity = \frac{\vec{A} \cdot \vec{B}}{\|\vec{A}\| \|\vec{B}\|}\]

其中,$\vec{A}$ 和 $\vec{B}$ 分别是查询和文档的嵌入向量。

  • 含义:计算两向量的相似性,用于评估检索结果与查询的语义匹配。

  • 解释:相似度越高,说明检索结果越贴近用户需求;适合评估语义检索性能。


2. 回答质量

Exact Match (EM,完全匹配)

  • 公式

    \[EM = \frac{\text{生成答案与参考答案完全匹配的数量}}{\text{总问题数量}}\]
  • 含义:衡量生成答案与参考答案是否完全一致。

  • 解释:适用于答案明确、无模糊的任务,如事实性问答。对生成语言的多样性不够宽容。


Faithfulness(可信性)

  • 公式: Faithfulness 通常通过人工或模型标注,具体公式为评分平均值:

  • \[Faithfulness = \frac{\text{人工或模型标注的总分}}{\text{问题数量}}\]
  • 含义:评估生成答案是否基于检索上下文。

  • 解释:确保模型不产生幻觉现象,例如回答未检索到的内容。适合需要生成引用或基于上下文回答的场景。

Answer Relevance(答案相关性)

  • 公式: Relevance=生成答案与问题的语义匹配分数总问题数量

    \[Relevance = \frac{\text{生成答案与问题的语义匹配分数}}{\text{总问题数量}}\]
  • 含义:衡量生成答案与用户问题的直接相关性。

  • 解释:通过人工标注或语义相似性模型计算,适用于开放性问答任务。


BLEU

  • 公式

    \[BLEU = BP \cdot \exp \left( \sum_{n=1}^N w_n \log P_n \right)\]

    其中,$P_n$ 表示 n-gram 精确匹配率,$BP$ 是惩罚过短生成的因子。

  • 含义:衡量生成文本与参考文本的 n-gram 匹配程度。

  • 解释:适用于翻译、摘要等任务,关注生成内容的语言表达相似性。


ROUGE

  • 公式

    \[ROUGE-N = \frac{\text{生成文本中与参考文本匹配的 n-gram 数量}}{\text{参考文本中的 n-gram 总数}}\]
  • 含义:评估生成文本和参考文本之间的重叠程度。

  • 解释:支持灵活的部分匹配,常用于摘要生成任务。


R-Rate(重现率)

  • 公式

    \[R-Rate = \frac{\text{生成答案中重现的检索内容数量}}{\text{检索内容的总量}}\]
  • 含义:衡量生成答案是否忠实重现了检索信息。

  • 解释:确保生成内容与检索内容一致,特别适用于引用型任务。


3. 系统鲁棒性

Noise Robustness(噪声鲁棒性)

  • 公式: 噪声鲁棒性通常通过生成答案质量变化的差异计算:

  • \[Robustness = Quality_{no\ noise} - Quality_{with\ noise}\]
  • 含义:衡量系统在噪声文档存在时的表现变化。

  • 解释:测试系统过滤无关或干扰性信息的能力。

Negative Rejection(负拒绝)

  • 公式

  • \[Rejection = \frac{\text{无答案问题中生成“无答案”的数量}}{\text{总无答案问题数量}}\]
  • 含义:评估系统在无答案场景下保持沉默的能力。

  • 解释:确保模型在无法回答时不生成误导性内容。

Information Integration(信息整合能力)

  • 公式: 信息整合能力通常通过评估多文档综合生成答案的质量:

    \[Integration = \frac{\text{综合多文档生成的完整答案分数}}{\text{参考答案分数}}\]
  • 含义:衡量系统从多文档中提取并整合信息的能力。

  • 解释:适用于多跳问答和复杂问题场景。


Counterfactual Robustness(反事实鲁棒性)

  • 公式

    \[Robustness = 1 - \frac{\text{错误信息影响生成答案的比例}}{\text{总问题数量}}\]
  • 含义:评估模型在存在反事实或错误信息时的抗干扰能力。

  • 解释:测试系统是否能够忽略虚假信息,仅生成基于真实内容的答案。


总结表格

指标类别指标公式作用与解释
上下文相关性Accuracy$\frac{\text{正确数量}}{\text{总数量}}$测试检索与生成的整体表现。
 Recall$\frac{\text{正确检索数量}}{\text{相关文档总数}}$检索覆盖率,减少遗漏信息。
 Precision$\frac{\text{正确检索数量}}{\text{检索总数}}$检索内容的质量,减少噪声。
 Cosine Similarity$\frac{\vec{A} \cdot \vec{B}}{|\vec{A}| |\vec{B}|}$测试查询和文档的语义相关性。
回答质量EM$\frac{\text{完全匹配数量}}{\text{总问题数量}}$测试答案与参考答案的完全一致性。
 Faithfulness$\frac{\text{标注总分}}{\text{问题数量}}$测试答案是否忠实于检索内容。
 Answer Relevance$\frac{\text{语义匹配分数}}{\text{问题数量}}$测试答案与问题的相关性。
 BLEU/ROUGE$BP \cdot \exp \left( \sum w_n \log P_n \right) / ROUGE−NROUGE-N$测试生成内容与参考答案的相似性。
 R-Rate$\frac{\text{重现的检索内容数量}}{\text{检索内容总量}}$测试生成答案对检索内容的重现能力。
系统鲁棒性Noise Robustness$Quality_{no\ noise} - Quality_{with} $ 

问题二 评估框架

表4 中提到的 Evaluation Framework(评估框架) 为评估 RAG 系统提供了系统化的工具和基准。这些框架从不同维度对 RAG 系统的性能进行全面评估,包括检索质量、生成质量,以及模型在不同场景下的适应性与鲁棒性。

image-20241129084002757

以下是表4中提到的主要评估框架的详细介绍,包括其目标评估内容使用的定量指标


1. RGB(评估框架)

  • 目标
    • 评估 RAG 系统的 检索质量生成质量
    • 特别关注系统的鲁棒性,包括噪声文档的处理能力和反事实信息的识别能力。
  • 评估内容
    • 噪声鲁棒性(Noise Robustness):系统在存在无关或误导性文档时的表现。
    • 负拒绝(Negative Rejection):在缺乏答案时,系统拒绝生成虚假答案的能力。
    • 信息整合(Information Integration):从多个文档中提取并综合答案的能力。
    • 反事实鲁棒性(Counterfactual Robustness):系统能否忽略错误或虚假信息。
  • 定量指标
    • Accuracy:整体正确率。
    • EM:完全匹配比例。
    • RecallPrecision:检索和生成内容的覆盖率与准确性。

2. RECALL(基准评估)

  • 目标
    • 评估 RAG 系统生成答案的可信性,尤其是应对反事实场景的能力。
  • 评估内容
    • 反事实鲁棒性(Counterfactual Robustness):测试系统是否能够抵抗错误信息对生成答案的干扰。
  • 定量指标
    • R-Rate(重现率):生成内容中基于检索信息的比例,确保答案基于真实的上下文而非虚假信息。

3. RAGAS(评估工具)

  • 目标
    • 提供自动化的评估工具,量化 RAG 系统的检索和生成表现。
  • 评估内容
    • 上下文相关性(Context Relevance):检索内容是否与查询匹配。
    • 可信性(Faithfulness):生成答案是否忠实于检索内容。
    • 答案相关性(Answer Relevance):生成答案是否与问题直接相关。
  • 定量指标
    • 自定义指标,如 Cosine Similarity(语义相似性)和基于模型评分的答案质量评估。

4. ARES(评估工具)

  • 目标
    • 提供类似 RAGAS 的自动化工具,专注于检索和生成任务的相关性和质量评估。
  • 评估内容
    • 与 RAGAS 类似,强调:
      • 上下文相关性(Context Relevance)
      • 可信性(Faithfulness)
      • 答案相关性(Answer Relevance)
  • 定量指标
    • Accuracy:生成答案的正确率。
    • FaithfulnessRelevance:由人工或模型标注的语义和内容一致性评分。

5. TruLens(评估工具)

  • 目标
    • 通过自动化和解释性工具评估 RAG 系统的检索和生成质量。
  • 评估内容
    • 上下文相关性:检索结果是否与查询匹配。
    • 可信性:生成内容是否基于检索上下文。
    • 答案相关性:答案与用户问题的直接性和完整性。
  • 定量指标
    • 支持用户自定义指标,如 BLEUROUGEBERTScore 等,同时包含专门的上下文相关性评估指标。

6. CRUD(评估基准)

  • 目标
    • 针对创意生成、知识密集型任务的系统设计专门评估基准,综合测试模型的生成和检索能力。
  • 评估内容
    • 创意生成(Creative Generation):生成内容的新颖性和多样性。
    • 知识密集型问答(Knowledge-intensive QA):在复杂任务中的知识准确性。
    • 错误纠正(Error Correction):模型识别并纠正错误信息的能力。
    • 摘要生成(Summarization):在压缩文本时保持关键信息的能力。
  • 定量指标
    • BLEU:衡量生成与参考答案的 n-gram 匹配。
    • ROUGE-L:评估生成内容与参考答案的最长公共子序列。
    • BERTScore:基于语义的生成质量评分。

总结表格

框架评估目标评估内容定量指标
RGB检索与生成质量、系统鲁棒性噪声鲁棒性、负拒绝、信息整合、反事实鲁棒性Accuracy, Recall, Precision, EM
RECALL反事实场景中的生成可信性反事实鲁棒性R-Rate
RAGAS自动化评估检索和生成质量上下文相关性、可信性、答案相关性Cosine Similarity、自定义指标
ARES自动化评估检索和生成质量上下文相关性、可信性、答案相关性Accuracy, Faithfulness, Relevance
TruLens自动化和解释性评估工具上下文相关性、可信性、答案相关性BLEU, ROUGE, BERTScore
CRUD创意生成、知识问答、错误纠正、摘要生成创意生成、知识密集型问答、错误纠正、摘要生成BLEU, ROUGE-L, BERTScore

结论

这些评估框架和工具为 RAG 系统的性能评估提供了多维度的方法,涵盖了从基础检索到生成的各个环节。选择合适的框架和指标需要根据具体任务需求,如是否强调鲁棒性、生成质量或任务多样性。如果需要某个工具的具体应用示例或更详细的解析,请进一步说明!

文中将RAG方法分为了三种 检索(Retrieval) 生成(Generation)增强(Augmentation),请分别解释

以下是对文中提到的 RAG 方法三种划分(检索、生成、增强)的综合分析,包括划分原因每部分解决的问题主要思想以及代表性方法


1. 划分原因

RAG 技术被划分为检索(Retrieval)生成(Generation)*和*增强(Augmentation),主要基于以下逻辑:

  • 任务分解:RAG 的核心目标是通过外部知识补充和改进语言模型的生成质量。实现这一目标需要将任务细化为三大环节:获取相关知识(检索)、生成答案(生成)以及优化流程(增强)。
  • 模块化设计:这种划分使 RAG 系统可以模块化开发和优化,分别改进各环节的性能,便于适配多样化任务。
  • 问题应对:每个环节专注于解决特定问题。例如,检索阶段关注信息覆盖性,生成阶段解决内容准确性,增强阶段提升效率和鲁棒性。

2. 每部分要解决的问题及主要思想

检索(Retrieval)

  • 要解决的问题
    • 如何从庞大的外部知识库中快速准确地检索与用户查询相关的信息。
    • 在保证相关性的同时,减少冗余和噪声。
    • 平衡检索的覆盖性(Recall)与精确性(Precision)。
  • 主要思想
    • 基于语义嵌入(Dense Embedding)或稀疏向量(Sparse Vector)的方法,将用户的查询和知识库内容向量化。
    • 使用语义相似性计算(如余弦相似度)来检索最相关的文档。
    • 通过优化索引结构(如分层索引、元数据附加)和查询扩展(如 Query Expansion)提升检索效果。
  • 代表性方法
    1. DenseX:提出基于语义向量的密集检索方法,结合细粒度的单元(如短语)进行高效检索。
    2. HyDE(Hypothetical Document Embedding):通过生成假设性文档,将查询扩展为更语义相关的检索目标。
    3. FLARE:结合检索与生成过程的主动触发机制,在生成过程中动态调用检索模块。

生成(Generation)

  • 要解决的问题
    • 如何利用检索到的信息生成准确且连贯的答案。
    • 避免“幻觉”(hallucination)现象,即生成与事实不符的内容。
    • 平衡生成内容的可信性(Faithfulness)与多样性(Diversity)。
  • 主要思想
    • 将检索到的内容与用户的原始问题结合,作为上下文输入到语言模型中。
    • 通过精细化生成过程(如上下文压缩、重排序)提高生成质量。
    • 针对具体任务进行模型微调,使生成过程更加适配任务需求。
  • 代表性方法
    1. Self-RAG:引入反思机制(Reflection Token),通过模型自评估生成质量,并动态调整上下文。
    2. PRCA(Pluggable Reward-driven Context Adapter):通过奖励机制选择最优上下文,以提高生成的相关性和可信性。
    3. LlamaIndex:基于轻量级框架的生成方法,利用层级化结构组织上下文并动态调整生成内容。

增强(Augmentation)

  • 要解决的问题
    • 如何优化检索和生成之间的交互,提高整体系统的效率和鲁棒性。
    • 在复杂任务中,通过多轮检索或动态调整上下文增强系统表现。
    • 处理噪声、冗余信息,以及复杂逻辑推理的需求。
  • 主要思想
    • 通过迭代检索、递归检索和自适应检索等方式动态优化检索-生成流程。
    • 利用强化学习或反馈机制优化检索策略。
    • 在不同场景中灵活调整系统的行为,使其适应多样化任务需求。
  • 代表性方法
    1. ITER-RETGEN:通过生成增强检索的协同机制,反复交替检索和生成,提高信息覆盖率。
    2. IRCoT(Iterative Retrieval with Chain of Thought):通过链式推理(Chain of Thought)引导多轮检索。
    3. Self-RAG:结合主动触发机制,根据生成过程中的自反思动态调整检索。

3. 三部分的差异对比

模块目标要解决的问题主要方法代表性方法
检索从知识库中找到相关信息提高相关性、减少噪声,平衡覆盖率和精确率语义嵌入、元数据索引、查询扩展DenseX, HyDE, FLARE
生成基于检索内容生成连贯且准确的答案避免幻觉,提升可信性,支持多样性表达上下文压缩、模型微调、生成重排序Self-RAG, PRCA, LlamaIndex
增强动态优化检索与生成过程应对复杂任务,提高鲁棒性与适应性迭代检索、链式推理、自适应检索ITER-RETGEN, IRCoT, Self-RAG

总结

  • 划分意义:这种划分将复杂的 RAG 系统分解为三个模块,各模块专注解决特定问题,有助于针对性优化。
  • 系统整体性:三部分相互补充,检索提供基础信息,生成负责最终输出,增强优化交互与适应性。
  • 发展方向:未来研究将更加注重增强模块的灵活性(如主动式检索)和生成模块的可信性(如避免幻觉)。

文中将将RAG技术划分为三种范式

文中将 RAG(Retrieval-Augmented Generation)技术划分为三种范式,这是对 RAG 系统在不同任务需求和技术实现上的总结。以下分别从划分依据与原因主要思想与区别代表性方法以及与检索、生成、增强三个阶段的关系进行详细介绍。


1. 划分依据与原因

  • 划分依据
    • 系统架构复杂性:根据 RAG 系统从简单到复杂的技术实现层次,将其划分为从传统到高级再到模块化的三种范式。
    • 任务需求差异:简单任务(如基本问答)可通过基础范式完成,而复杂任务(如多跳推理、多模态生成)则需要更复杂的范式。
    • 灵活性与适配性:复杂的范式提供更高的灵活性和适配性,适应多样化场景和动态任务需求。
  • 划分原因
    • 优化性能:通过分层分析,明确各类范式的优势,便于针对性改进性能。
    • 研究指导:为研发者提供明确的技术方向选择,降低 RAG 技术开发门槛。
    • 模块化扩展:复杂的范式可通过模块化设计适应未来任务需求,便于扩展和升级。

2. 每种范式的主要思想与区别

(1)Naive RAG(基础 RAG)

  • 主要思想
    • 简单地将检索-生成(Retrieve-Generate)流程串联起来。
    • 检索模块从外部知识库中找到相关内容,生成模块利用检索结果生成答案。
    • 以固定流程为主,缺乏动态调整能力。
  • 区别
    • 直接串联,没有复杂的动态优化机制。
    • 适合简单任务,效率高但在鲁棒性和复杂任务适配性上有局限性。
  • 代表性方法
    1. RAG-Seq:采用检索序列后直接生成答案的简单流程。
    2. RAG-Token:逐步生成答案时引用检索到的内容。
    3. DPR(Dense Passage Retrieval):基于密集向量的检索方法,用于提高检索效率。

(2)Advanced RAG(高级 RAG)

  • 主要思想
    • 在基础 RAG 的基础上,引入动态优化机制,如:
      • 上下文压缩与优化:对检索到的内容进行重排序或过滤,保留最相关的信息。
      • 检索与生成交互:生成过程中动态调整检索内容。
      • 多轮检索:在生成过程中多次调用检索模块,获取新的信息。
  • 区别
    • 动态优化检索与生成的交互流程,适应复杂任务需求。
    • 提高系统对任务上下文的理解能力,减少噪声干扰。
  • 代表性方法
    1. REALM(Retrieval-Augmented Language Model):生成过程中动态检索相关文档。
    2. FiD(Fusion-in-Decoder):通过融合多个检索到的文档进行生成,提升答案的全面性。
    3. DRaG(Dynamic Retrieval and Generation):在生成过程中动态调整检索内容。

(3)Modular RAG(模块化 RAG)

  • 主要思想
    • 引入模块化设计,将 RAG 系统分解为独立的模块,分别进行优化。
    • 支持跨模态和多任务,如文本、图像、视频等多模态信息的结合。
    • 通过强化学习、自适应检索、递归生成等技术实现更高的灵活性和扩展性。
  • 区别
    • 完全模块化设计,适应多样化和动态任务需求。
    • 支持跨模态和复杂推理任务,鲁棒性和灵活性最强。
  • 代表性方法
    1. IRCoT(Iterative Retrieval with Chain of Thought):通过链式推理方法进行多轮检索与生成。
    2. Self-RAG:结合自反思机制动态调整系统行为。
    3. Multimodal RAG:结合多模态输入(如图像+文本),实现更复杂的生成任务。

3. 不同范式与检索、生成、增强三个阶段的关系

范式检索(Retrieval)生成(Generation)增强(Augmentation)
Naive RAG单次检索,通常基于密集向量或稀疏向量检索。直接利用检索结果生成答案,无动态优化机制。无增强机制,流程固定简单。
Advanced RAG支持多轮动态检索,结合上下文对检索内容进行优化。在生成过程中动态调整检索内容,改进生成质量。部分增强能力,如动态检索与生成交互、自适应上下文优化。
Modular RAG灵活选择检索策略(如递归检索、多模态检索)。生成过程中高度模块化,可适应跨模态或复杂任务需求。全面增强机制,包括链式推理、强化学习、自适应策略,适应复杂场景。

总结

  1. 划分依据与原因
    • 基于技术复杂性和任务适配性,划分为基础、高级、模块化三种范式。
    • 帮助研发者明确选择方向,根据需求开发适配不同场景的 RAG 系统。
  2. 主要思想与区别
    • 基础 RAG:简单串联,效率高但灵活性不足。
    • 高级 RAG:动态优化交互,提高鲁棒性和复杂任务适配性。
    • 模块化 RAG:完全模块化设计,支持多模态和复杂推理任务。
  3. 代表方法
    • Naive RAG:RAG-Seq, DPR。
    • Advanced RAG:REALM, FiD。
    • Modular RAG:IRCoT, Self-RAG。
  4. 与检索、生成、增强的关系
    • 基础 RAG 偏重检索和生成,流程简单。
    • 高级 RAG 在增强部分增加优化机制。
    • 模块化 RAG 完全覆盖检索、生成、增强三阶段,适应最广。

如果需要深入讨论某一范式或代表方法的实现细节,请进一步说明!

个人理解

相关笔记

[前沿重器[41]综述-面向大模型的检索增强生成(RAG)](https://mp.weixin.qq.com/s?__biz=MzIzMzYwNzY2NQ==&mid=2247489372&idx=1&sn=8fc154edac26943a447d596a4e697ede&chksm=e8824fc2dff5c6d44d8e7a1be4cc1b472e8cdd8e8484bf02d00f78ab708e6340f6f90243cb0c&scene=21#wechat_redirect)

文档信息

Search

    Table of Contents