ACE-ADK: 論文「Agentic Context Engineering」在Google ADK中実装してみた

LLM(大規模言語モデル)の進化に伴い、単にプロンプトに応答するだけでなく、自らの経験から学び、継続的に性能を向上させる「自己改善するLLMシステム」への関心が高まっています。このようなシステムを実現するためのアプローチの一つとして、論文「Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models」で提唱されたACE (Agentic Context Engineering) フレームワークがあります。

LLM(大規模言語モデル)の進化に伴い、単にプロンプトに従答するだけでなく、自らの経験から学び、持続的に性能を向上させる「自己改善するLLMシステム」への関心が高まっています。このようなシステムを実現するためのアプローチの一つとして、論文「Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models」で提唱されたACE (Agentic Context Engineering)フレームワークがあります。

ACEは、LLMに与えるコンテキスト(指示や過去の経験など)を「進化する戦略書(Playbook)」として扱い、エージェント自身が試行錯誤を通じてこのPlaybookを洗練させていく仕組みです。

ACE是与LLM相结合的复杂系统(指示或过去的经验等)作为“推进的战斗书(Playbook)”来使用,扩展自身的执行错误通过这个Playbook进行训练。

本記事では、このACEフレームワークのコンセプトを解説し、Googleが提供するエージェント開発用フレームワーク Google ADK (Agent Development Kit) を用いてその中核的なサイクルを実装したスタータープロジェクト「ACE-ADK」を紹介します。

本记事中,将对这个ACE框架的构成进行解说,Google提供的扩展开发用框架 Google ADK (Agent Development Kit) 作为其中核心的样例进行实现的策略框架ACE-ADK进行介绍。

第1部: Agentic Context Engineering (ACE) とは?

第1部: Agentic Context Engineering (ACE) 是什么?

1. Context Adaptationの課題

1. Context Adaptation的课题

LLMの性能を向上させる手法として、モデルの重みを更新するファインチューニングとは別に、プロンプトや外部メモリなどのコンテキストを工夫するContext Adaptation(またはContext Engineering)が注目されています。これは、迅速かつ解釈可能な形でLLMの振る舞いを調整できる強力なアプローチです。

作为提升LLM的性能的手段,更新模型的重心与其他组件的构建,进行Context Adaptation(或者Context Engineering)被关注。这是,快速且可解读的形式使得LLM的转变舞蹈能够调整的强力的应用程序。

しかし、論文では既存のContext Adaptation手法に2つの主要な課題があると指摘しています。

不过,论文中已存在的Context Adaptation手法有两个主要的课题在指摘着。

Brevity Bias(簡潔さへの偏り)

Brevity Bias(简洁性偏向)

多くのプロンプト最適化手法は、短く汎用的な指示を生成する傾向があります。しかし、エージェントが複雑なタスクを遂行するには、ドメイン固有のヒューリスティクスや過去の失敗から得られた具体的な教訓が不可欠です。簡潔さを追求するあまり、こうした詳細な知識が失われてしまう問題が「Brevity Bias」です。

多个程序最适化手法是,生成短而易用的指示的倾向。不过,异常的任务会导致的具体的教训是不可忽视的。简洁性偏向的追求之余,如何使得详细的知识失去的情况就是“Brevity Bias”。

Context Collapse(文脈の崩壊)

Context Collapse(文脈の崩壊)

コンテキストを反復的にLLM自身に要約・書き換えさせると、回を重ねるごとに情報が劣化し、最終的には非常に短く内容の薄いものに収束してしまうことがあります。これにより、せっかく蓄積した知識が失われ、性能が大幅に低下する現象が「Context Collapse」です。論文では、適応を重ねるうちにコンテキストのトークン数が激減し、精度がベースライン以下に落ち込む実験結果が示されています(下図参照)。

コンテキストを復元的にLLM自身に要約・書き換えさせると、回答が重複することに情報が圧縮され、最終的には非常に短い内容の薄いものに収束してしまうことがあります。これによ...

开通本站会员,查看完整译文。

- 위키
Copyright © 2011-2025 iteam. Current version is 2.147.0. UTC+08:00, 2025-10-28 02:20
浙ICP备14020137号-1 $방문자$