AI工程:RAG
从“一本正经地胡说八道”到“更懂你”:Graph RAG 如何让 AI 真正拥有知识?
传统的 RAG 技术虽然能够为 LLM 提供更丰富的知识来源,但它就像一个只会“照本宣科”的学生,缺乏对知识的真正理解。而 Graph RAG 则赋予了 AI 更强大的推理能力和逻辑思维能力,让 AI 能够像人类一样理解世界、解决问题。
一文搞懂大模型!基础知识、 LLM 应用、 RAG 、 Agent 与未来发展
本文将带你走进 LLM 的世界,从入门知识到实际应用,全方位解读这个充满魔力的“大模型”。
Unlocking knowledge sharing for videos with RAG
Vimeo’s video Q&A system harnesses the latest AI techniques to enable you to talk to videos about their content.
The GraphRAG Manifesto: Adding Knowledge to GenAI
Discover why GraphRAG will subsume vector-only RAG and emerge as the default RAG architecture for most use cases.
Java开发者LLM实战——使用LangChain4j构建本地RAG系统
本文将通过实战代码示例,意在帮助没有大模型实战经验的Java工程师掌握使用LangChain4j框架进行大模型开发。
一文梳理有效提升RAG效果的方法
本文会先介绍几篇关于RAG优化的论文,再记录一些常见的RAG工程实践经验。
RAG 标准和腾讯云 ES 的技术实践
如今,大模型已经可以从非常海量数据中搜索我们问题相关的内容,并且进行总结提炼,非常好地回答我们的问题。企业非常希望将这一技术进步应用到实际生产中,然而实践过程中我们发现仍存在着种种障碍。这就是 RAG 技术出现的原因,它可以作为一个桥梁帮助我们更好地解决搜索的问题。
如何手撸一个自有知识库的RAG系统
RAG通常指的是"Retrieval-AugmentedGeneration",即“检索增强的生成”。这是一种结合了检索(Retrieval)和生成(Generation)的机器学习模型,通常用于自然语言处理任务,如文本生成、问答系统等。
一文详谈RAG优化方案与实践
RAG通过检索现有的大量知识,结合强大的生成模型,为复杂的问答、文本摘要和生成任务带来了全新的解决方案。本文详细的介绍了RAG遇到的挑战、通用范式、工程实践、优化实现策略等。
面向AI的开发:从大模型(LLM)、检索增强生成(RAG)到智能体(Agent)的应用
随着技术的快速进步,如何更高效地利用这些大模型(LLM)来解决具体问题?如何通过检索增强生成(RAG)技术提高信息的准确性和相关性?以及如何设计能够有效集成LLM、RAG和其他AI技术的智能体?
RAG敲响丧钟?大模型长上下文是否意味着向量检索不再重要
RAG已经被证明是一种解决大模型幻觉的有效方法。
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
本文主要内容: 为什么一般情况下RAG的检索相关性存在问题? Rerank为什么可以解决这个问题? 几种常用Rerank组合评测; 如何在自己的产品中使用Rerank?…
翻译:图文并茂讲解高级 RAG 技术
对高级检索增强生成技术(Retrieval Augmented Generation, RAG)及算法的全面讲解。
Using LlamaIndex with Elasticsearch for Enhanced Retrieval-Augmented Generation (RAG)
Retrieval-Augmented Generation (RAG) is a technique that combines retrieval and generation capabilities. It effectively addresses some issues of large language models (LLMs), such as hallucinations and knowledge limitations. With the evolution of RAG, vector technology involved in RAG has gained attention, and vector databases have become more widely recognized. Established database providers now support vector retrieval, including Elasticsearch, which recently added support for vector retrieval in its latest version. This article introduces the deployment of Elasticsearch and embedding models in RAG, as well as how to use Elasticsearch for document indexing and retrieval within the LLM framework LlamaIndex.
得物大模型平台接入最佳实践
大模型是未来业务创新的重要驱动力,可以帮助业务提升效率、质量和用户体验。业务可以通过渐进的方式接入大模型,从PROMPT开始,逐步尝试RAG和Fine-tuning,以达到最佳收益效果。期待与更多业务部门合作,共同探索大模型的更多可能性。
RAG实战案例:如何基于 LangChain 实现智能检索生成系统
在人工智能领域,如何有效结合大型语言模型(LLM)的常识性知识与特定的专有数据,一直是业界探索的热点。微调(Fine-tuning)与检索增强生成(RAG)两种方法各有千秋,且都对此问题有着不可忽视的贡献。