从底层逻辑搞懂Agent自动化设计(非常详细),收藏这篇就够了!

张开发
2026/4/12 21:20:28 15 分钟阅读

分享文章

从底层逻辑搞懂Agent自动化设计(非常详细),收藏这篇就够了!
背景大语言模型已经在多任务场景中展现出强大的通用能力但一个关键问题正在成为LLM代理落地的最大瓶颈模型在部署后几乎无法继续学习。预训练依赖海量数据与算力微调成本高昂且难以频繁进行而真实生产环境中不断积累的交互经验却很难被模型吸收与复用。Memento-Skills提出了一条全新的路径——在完全冻结模型参数的前提下通过持续进化的技能内存让代理在真实任务中不断成长使LLM从一次性训练的静态系统迈向能够在部署阶段持续学习的动态系统。LLM适配的三种范式热力评分91分关键亮点提出无需微调LLM参数的自进化代理框架将可执行技能作为外部记忆并用离线RL训练的行为对齐路由器显著提升技能选择与跨任务复用能力。数据亮点在GAIA与HLE基准上相较Read-Write基线分别提升13.7pp与20.8pp验证了持续学习与领域迁移的实际效果。是否开源已开源相关链接见结尾。方法亮点Memento-Skills围绕技能内存构建通过读写反射学习Read-Write Reflective Learning实现无需微调的持续学习所有能力进化都体现在技能库的动态更新中。1. 技能作为外部记忆从日志到可执行能力传统记忆系统只保存交互轨迹而Memento-Skills将记忆升级为可执行技能 artefact每个技能同时包含规范、提示词与代码可直接驱动任务执行。从理论层面系统通过将状态扩展为x_t (s_t, M_t)当前任务状态技能内存重新获得马尔可夫性保证了系统的收敛性。这就像游戏角色无需升级自身属性仅靠收集和优化装备就能变强也像资深工程师凭借积累的“经验缓存”比新手处理问题更高效。2. 五步循环读写反射学习流程系统以“观察-读取-执行-反馈-写入”的闭环持续迭代•观察Observe接收用户任务请求结合当前提示内存形成增强输入。•读取Read路由最相关技能必要时自动创建新技能让LLM拿到最适合当前任务的“操作指南”。•执行ActLLM根据选中的技能和输入执行多步工作流生成结果。•反馈Feedback由Judge模块判断执行结果是否正确给出奖励信号。•写入Write这是系统进化的关键对应政策评估与改进先更新技能的效用评分成功次数/(成功失败次数)如果执行失败将通用提示加入提示内存再通过失败归因找出导致错误的核心技能若该技能的效用低于阈值且有足够样本就创建新技能补充到库中否则原地优化现有技能比如添加防护逻辑、替换执行策略所有技能修改都要经过单元测试门验证避免功能退化若优化后重试仍失败就重复上述过程。这个循环完美复刻了人类学习技能的过程初始技能可能脆弱且适用范围窄但经过反复练习与修正会演变为健壮的可复用流程形成解决同类问题的“肌肉记忆”。读写反射学习循环概览3. 行为对齐技能路由从语义匹配到成功概率传统路由只关注语义相似度无法保证执行有效。Memento-Skills提出单步离线RL训练的对比检索模型将优化目标转为“技能成功概率”。核心流程为• 合成正负任务样本并由LLM Judge筛选。• 使用多正例 InfoNCE 训练行为对齐嵌入。• 采用 Boltzmann 策略平衡利用与探索。检索管道结合 BM25 稠密检索 RRF融合 重排序兼顾准确率与效率。检索流程概览4. 模块化系统架系统从3万行单文件原型重构为模块化架构•入口层支持CLI和桌面GUI启动时完成配置、日志、数据库与技能同步。•代理编排层核心的Memento-SAgent负责意图识别、任务规划、执行循环、步骤反射和结果回复。•工具调度层管理内置工具与技能工具执行安全检查。•技能系统负责技能的存储、召回与执行进化引擎从反馈中优化技能库。•基础设施层包含LLM客户端、配置管理和数据库处理会话与上下文。模块解耦使系统可独立升级并支持规模化扩展。Memento-Skills的组件架构实验结果性能提升 技能真正进化作者在两个高难基准上验证系统能力GAIA 与 HLE并与关闭技能优化的 Read-Write 基线对比底层模型为 Gemini-3.1-Flash。1. 行为对齐路由离线与端到端一致提升如图所示行为对齐训练显著提升技能选择质量•离线Recall1达到 0.60BM25仅0.32提升 87.5%•Recall10达到 0.90•端到端命中率从 0.29 提升至 0.58•udge成功率从 0.50 提升至 0.80。结论很明确语义相似 ≠ 执行有效行为对齐才是真正关键。路由性能评估2. GAIA复杂任务下稳定提升GAIA包含165个真实世界的复杂问题需要多步推理、工具调用和多模态处理分为100个训练样本和65个测试样本。• 训练阶段成功率从 65.1% 提升至91.6%三轮反射后。• 测试集准确率 66.0%相比基线 52.3%提升 13.7个百分点。不过由于GAIA任务分布高度分散跨任务迁移有限。这说明技能复用依赖领域结构。GAIA实验结果3. HLE结构化领域中迁移能力爆发HLE包含2500个跨8个学术领域的问题作者采样了788个训练样本和342个测试样本每个领域的任务关联性极强。• 训练成功率从 30.8% 提升至54.5%R0→R3。• 测试准确率 38.7%基线仅 17.9%提升超过2倍。在人文、生物等学科上持续增长证明技能可以跨任务复用。HLE实验结果4. 技能库真实进化如下图的t-SNE投影所示系统从最初的5个原子技能开始经过GAIA学习后技能库增长到41个技能分布紧凑对应GAIA任务多样性但规模较小的特点。经过HLE学习后技能库扩展到235个技能且自动聚类成语义相关的组每个聚类对应一个领域的专属能力显示出清晰的结构化能力演化轨迹。这不是简单记忆积累而是能力结构的形成。技能库演化的t-SNE投影结论与展望从工程与落地视角看这项工作真正击中了当前LLM代理最现实的痛点模型在生产环境中无法持续学习。它用技能库替代模型微调把经验沉淀为可执行、可复用、可进化的能力资产并通过行为对齐的路由与读写反射循环让系统在真实任务中越用越强。当行业还在纠结要不要继续微调模型时这项工作给出了一条更务实的路径让AI的成长发生在部署之后而不是训练之前。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章