大模型私有知识库如何提高准确率?切块是关键

B站影视 内地电影 2025-03-10 08:43 2

摘要:RAG 就像我们做开卷考试,在回答考题之前,先翻我们准备的资料(通过检索相关文档来增强自己的能力),这样一来,答题不仅更准确,还能带上更多上下文信息,显得更有深度和针对性。

RAG 就像我们做开卷考试,在回答考题之前,先翻我们准备的资料(通过检索相关文档来增强自己的能力),这样一来,答题不仅更准确,还能带上更多上下文信息,显得更有深度和针对性。

在 RAG 中,我们需要提前预备知识资料,然后向量化后存到向量数据库中,在回答问题的时候,并对问题进行向量化,然后去检索我们数据库是否有相似的内容,如果相似则召回,并把召回的内容一并给到大模型(如:Deepseek),然后通过大模型的推理归纳给出相应的答案。

类似下面步骤:

第一步:预备数据 首先,把我们准备的资料知识文档,“切”成一个个小文档块,然后存到数据库里。如果这些小文档块还生成了对应的“嵌入”(可以理解成一种数学表示),那这个数据库就可以升级成向量存储,方便后续的快速查找。

第二步:检索 当用提问时,系统先把问题向量化,并通过向量搜索、全文搜索,或者多模态的方式,去数据库里检索最相关的小文档块。当定位到那些和用户问题最匹配的信息片段后,以上下文的方式喂给大模型,这样大模型不仅能更快找到答案,还能确保回答得更精准、更有针对性,同时也减少了幻觉。

对于企业或者个人来说,有很多政策条文,或者文献,通常都是很长篇幅的内容。如果把这些很长的篇幅给到大模型,基于现有大模型的计算能力则无法一次性处理,那就需要对文本进行切块,然而切块不是越大越好,在向量化时,长文本面临以下核心挑战:

在上面我们看到“分块”在 RAG 中起到关键角色和面临的挑战,它直接决定了我们召回知识的准确性,因此选择合适的分块方法尤为重要;有效切割文件的关键在于平衡信息的完整性和管理的便捷性, 可以采用固定大小分块、语义分块、递归分块、基于文档结构的分块以及基于 LLM 的分块等多种策略 。

1. 固定大小分块 :按预定义的字符数、单词数或 Token 数量对文本进行切分,同时保留一定的重叠部分。这种方法实现简单,但可能会将句子截断,导致信息分散在不同的块中 1。2.语义分块 :根据有意义的单元对文档进行分段,持续将单元添加到现有块中,直到余弦相似度显著下降。这种方法能够保持语言的自然流畅性。3. 递归分块 :基于内在分隔符(如段落或章节)进行分块。如果某个块的大小超过限制,则将其进一步分割为更小的块。这种方法同样能够保持语言的自然流畅性。4. 基于文档结构的分块 :利用文档的内在结构(如标题、章节或段落)进行分块。这种方法能够保持文档的自然结构,但前提是文档具有清晰的结构。基于 LLM 的分块 :使用提示工程引导 LLM 生成有意义的分块。这种方法结合了大模型的智能,但可能需要更多的计算资源和时间。

总结表格如下:

2.语义分块✅ 保留完整语义单元✅ 提升上下文相关性✅ 动态适应内容❌ 依赖 NLP 模型质量❌ 计算资源消耗较高❌ 处理速度较慢专业领域分析逻辑推理任务3. 递归分块✅ 多粒度内容覆盖✅ 冗余信息捕获能力强✅ 灵活调整层级深度❌ 实现复杂度高❌ 可能产生信息重复❌ 需要多层索引管理学术文献处理法律合同解析4. 文档结构分块✅ 精准定位章节信息✅ 保持原始逻辑结构✅ 支持跨块引用❌ 依赖文档格式规范❌ 处理非结构化数据困难❌ 需要预解析规则技术手册处理论文解析系统

分块方法:

General(通用)

支持的文件格式比较多,需要自己设置对应的分割方式,比较难以控制,需要配合自然语言处理模型才会有好的效果

DOCX、EXCEL、PPT、IMAGE、PDF、TXT、MD、JSON、EML、HTML, JPEG, JPG, PNG, TIF, GIF

Resume(简历)
DOCX、PDF、TXTQ&A (问答)问题描述及问题答案,比较适合做客服问答相关EXCEL, CSV/TXTManual(手册)会使用 OCR 分割文档PDFTable(表格形式文件
EXCEL, CSV/TXTPaper(论文)
PDFBook(书籍类型)
DOCX, PDF, TXTLaws(律法相关)
DOCX, PDF, TXTPresentation(演示文稿)
PDF, PPTXPicture
JPEG, JPG, PNG, TIF, GIFOne(完整文件)文件不会被切割,直接一个文件给到大模型,有很好的上下文,但是文件长度取决于配置的大模型支持的长度DOCX, EXCEL, PDF, TXTTag(标签)需要提前设置标签描述与标签,类似 Q&A,在上面的解析中,设置标库用,会自动匹配命中的块并增加标签EXCEL, CSV/TXT

虽然我们掌握了如何对文档进行分块,但对分块的数据召回也是很关键的步骤,怎么提升数据的召回准确率也是一项亟待解决的问题。

影响数据召回准确率的原因有很多,从单一方面很难甚至可以说根本无法解决这个问题,因此提升数据的准确性就需要从多个方面入手。

以下是目前主流的一些方式:

1. 混合检索方法 同时执行向量检索(语义匹配)和全文检索(关键词匹配),通过线性加权或倒序融合(RRF)合并结果。 引入重排序模型(如BGE-Reranker),对多路召回结果二次排序,优先保留高相关片段。

2. 多路召回策略 采用多模型并行检索(如BM25、DPR、Embedding模型),覆盖不同粒度的匹配需求。 对于复杂查询,将问题拆解为多个子查询,分别检索后合并结果。

3. 动态参数调整 设置相似度阈值(如0.5-0.7),过滤低相关片段;根据业务反馈动态调整分块大小和召回数量

在RAGFlow中已使用了上述的方法对数据进行召回增强,我们在使用的时候可以对相关参数进行调整验证,以达到更好的效果。

来源:正正杂说

相关推荐