话题AI工程 › RAG

AI工程:RAG

关联话题: GraphRAG、Retrieval-Augmented Generation、检索增强生成

手搓一个与多PPT文档对话的RAG引擎,并封装MCP Server

本文介绍了如何构建一个多PPT文档的RAG查询管道,并将其封装到MCP Server中,以便集成到其他客户端或Agent应用。通过视觉模型解析PPT内容,生成Markdown格式,并进行向量索引,提供端到端处理、深度解析、可溯源的生成、动态索引和缓存机制等核心功能。MCP Server提供了索引状态查询、添加PPT、与PPT对话和删除PPT等工具,方便用户操作。

How to Build an Intelligent FAQ Chatbot Using Agentic RAG and LangGraph

AI代理在企业中的应用日益广泛,特别是在客户支持领域。本文详细介绍了如何利用agentic RAG、LangGraph和ChromaDB构建一个智能FAQ聊天机器人,能够快速解决客户问题。通过动态调整检索流程、多步推理和工具集成,聊天机器人的准确性和效率显著提升。文中还展示了具体的实现步骤和代码,帮助开发者轻松上手,打造高效、可扩展的AI客服系统。

Top 7 Agentic RAG System to Build AI Agents

AI代理是人工智能领域的超级英雄,能够自主执行任务并模拟智能行为。它们通过机器学习模型处理数据、做出决策并执行行动,广泛应用于客服、金融、营销和供应链管理等领域。AI代理分为反应型、自我反思型、规划型和多代理系统等类型,核心组件包括架构、代理功能和代理程序。尽管AI代理提高了效率和决策能力,但也面临数据偏见、透明度和伦理等挑战。未来,AI将与人类协作,定制化算法和伦理考量将成为关键。

从“数据拼凑”到“精准断案”:深度剖析RAG系统中信息完整性的关键作用

在智能缺陷查重项目中,尽管使用了精心设计的Prompt和强大的LLM,模型仍产生数据不一致的“拼凑”结果。通过分析,发现问题的根源在于RAG数据库中的“信息断层”。索引阶段的“有损压缩”和检索阶段的“碎片化召回”导致LLM接收到的上下文信息不完整,从而产生“幻觉”或“创造性拼凑”。解决方案是确保信息原子性,使LLM接收到完整的结构化数据,最终输出数据一致的查重报告。

Advanced RAG — Using Gemini and long context for indexing rich documents (PDF, HTML...)

在处理包含文本和丰富元素(如图片、图表)的PDF文档时,结合RAG和长上下文窗口的混合方法能有效提升检索效果。首先,通过RAG技术筛选相关文档,再将其输入支持长上下文的模型(如Gemini)进行精细理解。利用多模态模型,Gemini不仅能分块文本、生成问题,还能描述图片内容。最终,结构化输出便于嵌入向量数据库,优化RAG流程。

LLM 系列(九):RAG 番外篇-从文档到向量

本篇深入解析RAG系统中文档转化为知识的过程,从数据拆分、清洗到向量化及入库。通过多种拆分策略和清洗技术,将原始文档转化为高质量知识单元,再借助Embedding模型将其向量化,最终存储在向量数据库中,为LLM提供精准知识支持,提升检索与生成效果。

RAG优化策略

RAG系统优化指南:针对文档解析阶段的数据异构和结构混乱问题,可采用动态切片、语义分块和RSE技术;文本召回阶段通过添加标题、生成问答对和上下文压缩提升匹配度;Query优化利用改写和HyDE方法;检索策略引入重排序、反馈循环和混合检索。系统性优化组合能显著提升信息检索与生成质量。

基于MCP-RAG的大规模MCP服务精确调用方法

MCP-RAG系统通过智能检索机制,解决了LLM在处理海量MCP服务时的“提示膨胀”问题,显著提升了服务查找效率和工具选择准确率。这一创新方法不仅优化了MCP服务的管理与调用,还为大规模AI应用部署提供了坚实支撑,赋能LLM高效处理复杂任务,推动AI生态的智能化发展。

一文读懂AI Search:从RAG到DeepSearch

模型内在知识有限,无法覆盖新生和私域数据,泛化性成挑战。RAG技术应运而生,通过检索增强模型知识。RAG演化从固定流程到自主智能体,结合推理和工具调用,提升模型自主性。知识边界和能力边界是智能体面临的主要问题,信息与工具成为拓展模型能力的关键。未来趋势是通用型智能体,向AGI迈进。

LLM 系列(八):RAG 篇

大型语言模型(LLM)虽强大,但在企业应用中存在知识截止、模型幻觉和私域知识缺失等局限。为解决这些问题,检索增强生成(RAG)架构应运而生,它将LLM与外部知识库结合,通过检索和增强生成两个核心阶段,提升答案的准确性与时效性。RAG不仅增强了系统的透明度和可信度,还推动了LLM从“玩具”向“工具”的转变。

RAG彻底爆了!一文读懂其架构演进及核心要点

RAG技术从基础到智能化的演进,涵盖了Naive RAG、Advanced RAG、Modular RAG和Agentic RAG四代架构。每代架构通过模块化设计、智能体协同等创新,解决了知识更新、语义对齐和复杂任务处理等关键问题,为LLM应用落地提供了重要参考。RAG系统的模块化与Agent化设计,提升了灵活性与扩展性,适应了多样化的业务需求。

从零搭建企业级RAG知识库问答系统

RAG技术通过检索、增强、生成三步,结合企业知识库与大模型,提供精准、可溯源的答案。搭建RAG系统需数据准备、向量生成与存储、文档检索、上下文构建与答案生成。优化数据质量、向量模型、索引结构及Prompt设计,可提升系统性能与回答准确性。

使用RAG技术构建企业级文档问答系统:生成优化(2)使用Unsloth对LLM进行微调

Unsloth微调Qwen3-1.7B实战:垂直领域效果提升显著!通过混合精度训练显存仅需模型16倍大小,1.7B小模型微调后得分从0.7跃至0.78,逼近7B量化版性能。微调侧重风格学习而非知识注入,配合RAG效果更佳。附Colab教程和HuggingFace模型,GTX1080Ti也能跑!

怎么短平快地把RAG做好:厦门银行RAG初赛方案分享

这篇分享揭秘了金融监管问答比赛的实战技巧!作者采用RAG架构,从文档解析、智能切块到混合检索层层优化,特别注重prompt设计和多模型融合。关键点在于:256/512双切块策略平衡精度与覆盖,BM25+向量检索+重排序三重保障,以及针对选择题/问答题的差异化处理。微调Qwen3模型后效果显著提升,最终通过投票融合进一步优化结果。干货满满,值得NLP从业者参考!

RAG 检索策略:BM25、Embedding 和 Reranker 万字深度解析

检索增强生成(RAG)通过结合检索与生成模型提升LLM回答准确性。BM25算法精准匹配关键词但忽略语义,Embedding检索则捕捉语义但不够精准。混合检索策略优于单一方法。Reranker通过交叉注意力机制精细排序,显著提升检索质量。未来,技术组合将更灵活,适应不同场景需求。

鹅厂实习生血泪贴:Agent/RAG黑科技,真相竟是这样!

RAG(检索增强生成)通过检索外部知识库增强AI回答的准确性,避免"幻觉"。其流程包括检索、增强、生成三步骤,核心指标为召回率和忠实度。优化方法涵盖知识库结构化、混合检索策略、生成内容引用等。LLM Agent则通过规划、记忆、工具使用等模块,实现自主决策与任务执行。两者结合,AI从聊天助手进化为全能智能体,处理复杂任务的能力显著提升。

- 위키
Copyright © 2011-2025 iteam. Current version is 2.145.0. UTC+08:00, 2025-08-24 05:58
浙ICP备14020137号-1 $방문자$