话题AI工程 › RAG

AI工程:RAG

关联话题: GraphRAG、Retrieval-Augmented Generation、检索增强生成

RAG融合技术探索与应用

本文深入探讨了RAG融合的工作原理、关键优势、挑战以及未来发展方向,同时讨论了其在客户支持、内容创作、研究和医疗保健等领域的广泛应用。

深入解析360智脑RAG方案:SuperCLUE-RAG榜单夺冠背后的技术洞察

近两年,检索增强生成(RAG,Retrieval-Augmented Generation)技术正在成为提升大模型性能的关键工具。RAG技术通过引入外部知识,结合检索与生成的双重能力,为大模型在复杂场景中的应用提供了更多可能性。无论是文档解析的质量、上下文信息的精确性,还是针对任务的合理规划,RAG的每一步都在为模型能力的上限奠定基础。

GraphRAG全局问答工程化实践

本文深入探讨了GraphRAG的核心理念和相关技术,并对GraphRAG落地过程中的实践经验进行了总结,期望能为关注全局问答效果的学者与从业者提供一定参考。

RAG检索增强生成技术介绍与实战

随着深度学习和自然语言处理技术的不断进步, Retrieval-Augmented Generation(RAG)作为一种新兴的技术, 越来越受到关注。RAG技术通过将检索和生成方法相结合, 显著提升了生成任务的效果。本文将深入探讨RAG技术的应用, 并与大语言模型(LLM)直接推理进行对比, 阐述如何使用Chinese-CLIP作为向量模型,结合chunking技术和Redis Search向量存储引擎,实现检索增强生成的实战应用。

“无”中生有:基于知识增强的RAG优化实践

本文作者基于自身在RAG技术领域长达半年的实践经验,分享了从初识RAG的潜力到面对实际应用挑战的心路历程,以及如何通过一系列优化措施逐步解决这些挑战的过程。

LangChain RAG&Agent实践-活动组件AI助手的实现

活动组件AI助手落地共经历了三个阶段:

  • 快速落地:采用Dify平台,验证AI与业务结合的想法,快速实现第一版;
  • 优化性能:采用LangChain开发具备RAG能力的第二版;
  • 丰富功能:开发具备Agent能力的第三版;

在上一篇《AIGC在活动业务中的探索与应用》中,介绍了使用Dify平台快速落地活动组件AI助手的第一版,验证了AI与业务结合的可行性。接着我使用LangChain开发了第二版,简化第一版中Dify RAG的流程,提升推荐组件的性能。有了组件推荐能力后,我们继续丰富AI助手的功能,又有了新的想法:能否根据需求,查询历史活动,快速复用同类型组件?为此我们开发了具备Agent能力的第三版,实现根据用户需求,自主规划任务和调用工具,查询所需的活动和组件数据,并实现快速复用历史活动组件的功能。

Building a GraphRAG Agent With Neo4j and Milvus

Build a GraphRAG Agent using Neo4j and Milvus. By combining the strengths of graph databases and vector search, this agent provides accurate and relevant answers to user queries.

深入RAG:知识密集型NLP任务的解决方案

在当今知识密集型任务日益增多的时代,如何有效地利用外部知识来增强语言模型的生成能力成为了一个重要的研究方向,因此RAG技术应运而生。本文将详细介绍RAG的工作原理、应用场景、限制及挑战,帮助读者更好地理解和应用这一前沿技术。

Leveraging RAG-powered LLMs for Analytical Tasks

Retrieval-Augmented Generation (RAG) is a powerful process that is designed to integrate direct function calling to answer queries more efficiently by retrieving relevant information from a broad database. In the rapidly evolving business landscape, Data Analysts (DAs) are struggling with the growing number of data queries from stakeholders. The conventional method of manually writing and running similar queries repeatedly is time-consuming and inefficient. This is where RAG-powered Large Language Models (LLMs) step in, offering a transformative solution to streamline the analytics process and empower DAs to focus on higher value tasks.

In this article, we will share how the Integrity Analytics team has built out a data solution using LLMs to help automate tedious analytical tasks like generating regular metric reports and performing fraud investigations.

快手B端商业化技术探索:基于LLM构建智能RAG与Agent平台

面对大模型技术浪潮,快手围绕B端商业化进行了探索与实践。本文详细阐述了基于LLM构建Agent技术平台的策略、挑战及解决方案。

半天玩转大模型技术之RAG

本文将带读者了解RAG技术,并以知识问答为例帮助读者快速搭建一套属于自己RAG。

RAG效果优化:高质量文档解析详解

本文关于如何将非结构化数据(如PDF和Word文档)转换为结构化数据,以便于RAG(Retrieval-Augmented Generation)系统使用。

Integrating Microsoft GraphRAG into Neo4j

Integrate Microsoft's GraphRAG with Neo4j, using LangChain and LlamaIndex for advanced retrieval in just a few steps. Explore detailed code examples.

GraphRAG + GPT-4o mini 低成本构建 AI 图谱知识库

简单来说,RAG(Retrieval-Augmented Generation,检索增强生成) 的工作原理是将大型文档分割成多个小段落或片段。主要原因是,大语言模型的上下文窗口长度有限,无法一次处理超过上下文窗口长度的信息。

当我提出一个问题时,RAG 技术可以先从这些片段中检索相关信息,根据我提问的内容与这些片段的相似度,找出若干个与问题相关的片段,组合成一个上下文,然后将这些信息,连同我的提问一起输入到大语言模型中,然后期待大语言模型「更为精准」的回答。

如何速成RAG+Agent框架大模型应用搭建

本文侧重于能力总结和实操搭建部分,从大模型应用的多个原子能力实现出发,到最终串联搭建一个RAG+Agent架构的大模型应用,让个人对于大模型应用如何落地更加具有体感。

从“一本正经地胡说八道”到“更懂你”:Graph RAG 如何让 AI 真正拥有知识?

传统的 RAG 技术虽然能够为 LLM 提供更丰富的知识来源,但它就像一个只会“照本宣科”的学生,缺乏对知识的真正理解。而 Graph RAG 则赋予了 AI 更强大的推理能力和逻辑思维能力,让 AI 能够像人类一样理解世界、解决问题。

首页 - Wiki
Copyright © 2011-2025 iteam. Current version is 2.143.0. UTC+08:00, 2025-04-27 03:55
浙ICP备14020137号-1 $访客地图$