分类
最新动态

这篇 AI Agent 漫游指南,带你建立全面的科技史观

最近各种Agent产品层出不穷,这篇文章是我看过的说的最清楚的,从agent的原理、诞生、优势、局限性、未来发展趋势都捋了一遍,再摘录其中一段我觉得最有趣的部分:

之前我们提的多agent和agentic workflo中的agent们的通讯,就如果我们在一个小团队里面紧密协同那样。而Google提出的A2A协议,把Agent之间的协同范围一下子提升到了全球的范围,它为每个Agent派发了身份证(AgentCard),在经过认识、握手后(鉴权),Agent们可以进行沟通和协作。

展开想象一下:

● 每个人都配套一个人个的Agent,用于代表你跟Agent的世界来交互,这个场景就很好玩了,跟朋友们约出去玩?让咱们的Agent们先商量一下,给我们一个方案;

● 买机票?我也不需要直接用某程的平台,只需要交代我的专属Agent,它自动发现和跟服务商的Agent(机构Agent)来沟通并支付就OK了。

● 你看,一个赛博数字世界就这么展开了。

🧐这篇文章系统梳理了AI Agent的发展历程与技术构成,强调“类Agent模型+后训练强化学习”已成为替代传统预训练路径的全新范式,揭示AI未来的演化逻辑:模型即Agent,工程化只是过渡形态。

✨重点

●🕰️ 技术进化时间线:文章从2017年Transformer诞生讲起,描绘了从GPT-3/4到ChatGPT、Function Call、ReAct,再到2024年O1与DeepSeek R1的登场,强调Agent演化路径已从插件系统转向模型具备工具使用与推理能力。

●🧠 Agent的定义澄清:指出当前“Agent”概念滥用,真正的AI Agent需具备四要素:大模型+记忆能力+工具调用+自主规划;而非仅仅是具备聊天功能的应用。

●🛠️ Function Call 与 MCP 的关系厘清:Function Call是模型“说出”要用什么工具的能力,MCP是“做”的协议标准,二者协同让Agent工具使用更加高效与标准化。

●🔁 ReAct框架的核心机制:通过“思考→行动→观察→反思”循环完成任务,模拟人类PDCA工作模式,成为Agent实际应用的主流运行范式。

●⚠️ 为何Agent“不work”:主要因为多轮调用导致正确率显著下降(幻觉叠加),以及记忆机制缺陷(如Token限制、向量召回误差等)使得任务完成可靠性差。

●🧩 三类工程优化路径:a) 使用固定工作流程(workflow)保障稳定性;b) 多Agent协作突破单Agent局限;c) 在ReAct框架上优化Token使用和调度效率(如Plan & Execute、ReWOO、LLMCompiler)。

●👥 多Agent架构解析:通过CrewAI、MetaGPT等框架实现“任务导向型”协作,多种结构(监督者/网状/层级)模拟人类团队协同,应用于软件开发、内容创作等复杂任务。

●🌐 Agentic Workflow 与 LLM+Workflow 区分:前者强调多Agent协作、自主反思、任务动态生成,具备自主智能;后者则是静态流程中嵌入大模型,智能性较弱。

●🚀 后训练强化学习成为新Scaling Law:传统靠“扩大模型参数”路径已触顶,O1与DeepSeek R1通过强化学习(如GRPO算法)训练出“思维链”推理能力,成本低、性能高,开启新一代“类Agent模型”时代。

●🔍 总结趋势判断:未来AI产品形态将从“工程Agent”向“类Agent模型”转型,Agent将成为模型本身的表现形态,而不只是模型外的调度系统。强化学习 + 多Agent + 思维链将是制胜三要素。

阅读原文:https://mp.weixin.qq.com/s/37SlqyDSg0FapEqJwy-0mw?poc_token=HIscM2ijwd9uc_njBqCAYsjvWf8NEMkomFiZGVX5

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注