话题AI工程 › AI Agent

AI工程:AI Agent

关联话题: 智能体

AI Agent 是通过工程化的手段,为大语言模型提供了获取外部工具、知识的能力。他是介于人类、大语言模型之间的代理。当用户向 AI Agent 输入问题时,AI Agent 可以使用大语言模型作为推理引擎,将一个复杂的任务进行分解、给出任务执行规划。之后 Agent 会调用外部工具获取结果,并将大语言的上次推理和工具调用结果返回给大语言模型,让大语言模型继续思考、规划。如此循环,直到将一个复杂的任务完成。

智能体(Agent)全景拆解:核心模块、技术实现与业务落地指南

智能体(Agent)是能感知环境、决策并行动的系统,核心模块包括感知、记忆、规划和行动。大语言模型(LLM)是其"大脑",通过数据驱动学习。记忆分短期(依赖上下文token)和长期(借助RAG等技术),行动需结合外部工具。规划模式有ReAct(逐步推理执行)和Plan-and-Solve(先拆解再执行)。Agent适用于需动态决策的场景,而固定流程选Workflow。评估和成本分析对优化至关重要。

Deep Research的架构演进:从Multi Agent到Supervisor-Researcher的技术实践

Open Deep Research是一个基于LangGraph的开源深度研究Agent,采用监督者-研究员模式,核心框架包括LangGraph、LangChain和asyncio。项目通过多层状态管理和有向状态图实现复杂研究流程,支持多模型和并发研究。状态管理采用override_reducer机制,确保状态一致性和灵活性。监督者负责策略规划和任务分发,研究员执行具体任务,显著提升研究效率。项目还实现了内容去重、Token管理和错误处理机制,确保研究质量和性能优化。

2025年多款Deep Research智能体框架全面对比

深度研究智能体框架百花齐放,开源与商业化产品各具特色。开源方案如DeerFlow、OpenDeepResearch等,有的分层多智能体模块化,有的追求极简代码,有的主打多阶段自反思与人机协作。商业化产品如ChatGPT、Gemini等则在交互体验、报告输出、搜索能力和质量控制等方面各有所长。深度研究智能体正朝着更高自动化、结构化和可控性方向演进,不同框架适合不同场景和需求。

Web Agent大对决:你的AI浏览器理想型,会是哪一个?

2025年,浏览器正从“看客”进化成“智能助手”。Web-Agent技术革命推动互联网交互模式从“搜索-点击”转向“对话-执行”。四大产品各具特色:ChatGPT Agent技术全能,Fellou高效低价,Comet强搜索,Dia极简体验。AI原生架构深度集成,实现流程自动化与任务委托,大幅提升效率,重塑数字化生活。未来,多模态融合与垂直化发展将引领浏览器新变革。

当下智能体(Agent)的理论框架与分析

智能体(Agent)与工作流(Workflow)是AI系统中的两大范式。工作流适用于简单任务,高效且稳定;而智能体则具备自主规划能力,适合复杂场景,灵活应对变化。构建高可靠智能体系统需动态管理与静态工作流的融合,确保LLM在工具调用链中保持合适上下文。MCP和A2A协议提升了AI系统的集成与协作效率,推动智能体在现实生活中的广泛应用。

Manus、LangChain一手经验:先别给Multi Agent判死刑,是你不会管理上下文

Multi-Agent与单一Agent之争,本质是上下文管理问题。Langchain提出写入、选择、压缩、隔离四大策略,Lossfunk则强调任务拆分、长上下文和逐步验证。Manus建议利用文件系统、控制注意力和保留错误记录。上下文工程胜于微调,灵活高效,是AI智能体优化的核心。

基于大模型的领域场景开发:从单智能体到多智能体的React框架设计与实现

大模型开发逐渐转向专有AI工具,提升生产力是关键。团队通过RAG、流程编排等技术,开发了智能助手和问答平台。近期采用React框架,实现智能体自主规划和工具调用,优化了决策和上下文管理。未来将探索多智能体协作和上下文动态压缩,进一步提升系统效率和响应质量。

警惕AI智能体构建误区:生产级系统的实战经验分享

AI智能体构建需避免过度复杂化,优先采用简单方案。生产环境中,应逐步增加功能,强化安全防护和评估机制。自主智能体与受限系统结合使用,明确能力边界。关键监控指标和人工介入机制不可或缺,确保系统稳定可靠。实施时,从基础功能开始,持续优化评估体系,提升系统整体表现。

ReAct和Plan & Solve谁更强?一文讲透AI Agent工作流设计模式

大模型技术推动AI Agent系统发展,关键在于工作流设计模式。反思型模式如基础反思、Reflexion、LATS和自我发现,强调迭代优化;规划型模式如ReAct、Plan & Solve、REWOO、LLM Compiler和Storm,注重步骤拆解与执行。不同任务适用不同模式,混合使用可打造更强大的AI Agent。

如何实现 AI Agent 自主发现和使用 MCP 服务 —— Nacos MCP Router 部署最佳实践

AI Agent在使用MCP协议时面临服务选择复杂、Token消耗高及安全隐患等问题。Nacos社区推出Nacos MCP Router,通过智能路由和代理模式简化服务配置,优化Token使用,并提升安全性。Router支持协议转换,结合容器化部署,提供隔离运行环境,有效解决当前挑战,推动MCP生态发展。

3个月,200家客户,和大家聊聊企业AI应用(AI Agent)的落地实践

AI应用正从工具向智能伙伴进化,AI Agent与LLM的双引擎模式赋予其思考与执行能力。MCP服务将企业IT资产转化为AI可调用的标准化能力。构建AI应用有全新开发与存量改造两种路径,AI网关、MSE Nacos和函数计算FC在架构中发挥关键作用,提供统一管理、高效运行和安全保障,助力企业AI转型。

基于智能体的自适应资损防控体系 - 淘工厂实践(二)

电商平台的资金安全面临严峻挑战,传统资损防控体系效率低下且覆盖不全。基于智能体的新型防控范式,通过多智能体协同,实现了从需求分析到实时监控的全链路主动防护。智能体前置风险识别,自动生成防控措施,并构建资损知识图谱,显著提升了风险防控的精准性和效率,为电商平台的资金安全保驾护航。

AI编码不是梦:手把手教你指挥Agent开发需求

AI编码实践展示了如何通过工具如通义灵码和模型如Qwen-Max、Claude-4-Sonnet,从接口定义到业务逻辑层,实现高效开发。文章详细拆解了工程结构、应用层、数据层和业务逻辑层的生成过程,并探讨了AI在编码中的实际应用与挑战,强调技术方案和Prompt设计的重要性,展望AI在编程中的未来潜力。

Context Engineering for AI Agents: Lessons from Building Manus

AI智能体系统的上下文工程是关键,通过KV缓存提升效率,避免动态增减工具,利用文件系统作为持久化内存,通过recitation机制引导注意力,保留错误信息以优化模型行为,避免少样本提示导致的模式固化,确保代理系统的稳定性和扩展性。

Unlocking Financial Insights with Finch: Uber’s Conversational AI Data Agent

Finch是优步开发的AI助手,集成于Slack,通过自然语言查询实时获取财务数据。它结合生成式AI、RAG和自查询代理,简化数据检索流程,提升效率。Finch具备上下文理解、自动SQL生成、权限控制等功能,支持数据导出至Google Sheets。其架构模块化,依赖OpenSearch索引和LangChain Langgraph,确保高精度和实时反馈。Finch优化了财务团队的数据访问体验,助力快速决策。

AI智能体全面爆发:一文吃透多Agent技术发展与进化

AI Agent的发展基于第一性原理,从基础认知到复杂协作逐步进化。图像识别借鉴人类视觉分层机制,推动深度学习突破。Agent协作经历手艺人、工作室、流水线等阶段,最终形成现代企业级智能协作网络。未来Agent将更自主、多模态、少指令,通过数据共享实现自我进化,在医疗等高价值领域潜力巨大。技术爆发往往非线性,各阶段协作形态都有其存在价值。

Accueil - Wiki
Copyright © 2011-2025 iteam. Current version is 2.144.3. UTC+08:00, 2025-08-15 01:52
浙ICP备14020137号-1 $Carte des visiteurs$