AI工程:RAG
LangChain进阶指南:RAG实践总结
大语言模型(LLMs)在生成特定领域信息时可能产生错误。RAG通过结合检索和生成两个阶段,利用外部知识库提升模型性能,解决虚假、过时和非权威信息问题。RAG的流程包括检索相关文档、增强提示信息、生成最终结果。使用LangChain工具快速实现RAG流程,能确保LLM生成最新准确的内容,减少误导性信息和敏感数据泄露,同时降低企业财务成本。
哈啰:构建智能出行RAG,ES还是向量数据库?
从ES到Milvus再到Zilliz Cloud,RAG助力哈啰在大模型时代自我进化。
巧用RAG解锁GEE代码自动生成,遥感开发的AI新工具
生成更准确的GEE代码,空间分析不求人。
7 Agentic RAG System Architectures to Build AI Agents
Agentic RAG System Architectures: Explore dynamic frameworks merging RAG and AI Agents to enhance decision-making, retrieval, and more.
在 IDE 中实现自然语言搜索代码:RAG 策略的设计与落地
最近,我们为 AutoDev 的 VSCode 版本中重新引入了先前设计的自然语言搜索代码功能。
RAG应用在得物开放平台的智能答疑的探索
得物开放平台目前提供了一系列的文档以及工具去辅助开发者在实际调用API之前进行基础的引导和查询。随着这几年AI大模型的发展,针对离散信息进行聚合分析且精准回答的能力变成了可能。而RAG应用的出现,解决了基础问答类AI应用容易产生。
RAG融合技术探索与应用
本文深入探讨了RAG融合的工作原理、关键优势、挑战以及未来发展方向,同时讨论了其在客户支持、内容创作、研究和医疗保健等领域的广泛应用。
深入解析360智脑RAG方案:SuperCLUE-RAG榜单夺冠背后的技术洞察
近两年,检索增强生成(RAG,Retrieval-Augmented Generation)技术正在成为提升大模型性能的关键工具。RAG技术通过引入外部知识,结合检索与生成的双重能力,为大模型在复杂场景中的应用提供了更多可能性。无论是文档解析的质量、上下文信息的精确性,还是针对任务的合理规划,RAG的每一步都在为模型能力的上限奠定基础。
GraphRAG全局问答工程化实践
本文深入探讨了GraphRAG的核心理念和相关技术,并对GraphRAG落地过程中的实践经验进行了总结,期望能为关注全局问答效果的学者与从业者提供一定参考。
RAG检索增强生成技术介绍与实战
随着深度学习和自然语言处理技术的不断进步, Retrieval-Augmented Generation(RAG)作为一种新兴的技术, 越来越受到关注。RAG技术通过将检索和生成方法相结合, 显著提升了生成任务的效果。本文将深入探讨RAG技术的应用, 并与大语言模型(LLM)直接推理进行对比, 阐述如何使用Chinese-CLIP作为向量模型,结合chunking技术和Redis Search向量存储引擎,实现检索增强生成的实战应用。
“无”中生有:基于知识增强的RAG优化实践
本文作者基于自身在RAG技术领域长达半年的实践经验,分享了从初识RAG的潜力到面对实际应用挑战的心路历程,以及如何通过一系列优化措施逐步解决这些挑战的过程。
LangChain RAG&Agent实践-活动组件AI助手的实现
活动组件AI助手落地共经历了三个阶段:
- 快速落地:采用Dify平台,验证AI与业务结合的想法,快速实现第一版;
- 优化性能:采用LangChain开发具备RAG能力的第二版;
- 丰富功能:开发具备Agent能力的第三版;
在上一篇《AIGC在活动业务中的探索与应用》中,介绍了使用Dify平台快速落地活动组件AI助手的第一版,验证了AI与业务结合的可行性。接着我使用LangChain开发了第二版,简化第一版中Dify RAG的流程,提升推荐组件的性能。有了组件推荐能力后,我们继续丰富AI助手的功能,又有了新的想法:能否根据需求,查询历史活动,快速复用同类型组件?为此我们开发了具备Agent能力的第三版,实现根据用户需求,自主规划任务和调用工具,查询所需的活动和组件数据,并实现快速复用历史活动组件的功能。
Building a GraphRAG Agent With Neo4j and Milvus
Build a GraphRAG Agent using Neo4j and Milvus. By combining the strengths of graph databases and vector search, this agent provides accurate and relevant answers to user queries.
深入RAG:知识密集型NLP任务的解决方案
在当今知识密集型任务日益增多的时代,如何有效地利用外部知识来增强语言模型的生成能力成为了一个重要的研究方向,因此RAG技术应运而生。本文将详细介绍RAG的工作原理、应用场景、限制及挑战,帮助读者更好地理解和应用这一前沿技术。
给Java同仁单点的AI"开胃菜"--搭建一个自己的本地问答系统
本文主要是讲解如何在本地搭建一个简易的AI问答系统。
Leveraging RAG-powered LLMs for Analytical Tasks
Retrieval-Augmented Generation (RAG) is a powerful process that is designed to integrate direct function calling to answer queries more efficiently by retrieving relevant information from a broad database. In the rapidly evolving business landscape, Data Analysts (DAs) are struggling with the growing number of data queries from stakeholders. The conventional method of manually writing and running similar queries repeatedly is time-consuming and inefficient. This is where RAG-powered Large Language Models (LLMs) step in, offering a transformative solution to streamline the analytics process and empower DAs to focus on higher value tasks.
In this article, we will share how the Integrity Analytics team has built out a data solution using LLMs to help automate tedious analytical tasks like generating regular metric reports and performing fraud investigations.