
2025 年,Agent 的熱度持續升高,無論是 MCP 協議的普及讓整個 Agent 的生態被打開,還是 A2A 協議的發布,讓我們對未來多 Agents 的生態充滿了期待。但目前大部分 Agent 僅是基于 LLM 的簡單延伸,距離真正的通用的智能尚有距離,在目前的設計下,面對復雜的真實世界,Agent 面臨著推理規劃、長期記憶、自主學習以及安全對齊等核心能力不足的問題。
為了明確定義我們距離通用智能的差距,以此來構建下一代 Agent,MetaGPT & Mila 聯合全球范圍內 20 個頂尖研究機構的 47 位學者,共同撰寫并發布了長篇綜述《Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems》(arXiv:2504.01990 )。

研究來自 MetaGPT、Montréal & Mila人工智能研究所、南洋理工大學、美國阿貢國家實驗室、悉尼大學、賓夕法尼亞州立大學、微軟亞洲研究院、伊利諾伊大學厄巴納-香檳分校、香港科技大學、南加州大學、耶魯大學、斯坦福大學、佐治亞大學、俄亥俄州立大學、阿卜杜拉國王科技大學、杜克大學、香港理工大學、谷歌 DeepMind 以及 加拿大高等研究院(CIFAR)等眾多研究者的集體智慧與前瞻思考。
其中特工滴滴,特工 Alpha,特工鯨魚也在作者列表中。

在這篇論文中,我們首次定義并提出了基礎 Agent(Foundation Agent) 這一新概念框架。Foundation Agent 并非某個特殊的 Agent,而是一個技術藍圖。它指引我們如何構建一個由復雜認知、多層記憶、世界模型、獎勵&價值、情緒&動機、多模感知、行動系統等模塊化組件構成的智能系統。


第一部分:Agent 的核心組件 - 構建認知基石
一個強大的 Foundation Agent 必然是一個復雜的系統,由多個相互協作的核心組件構成。我們借鑒了認知科學和神經科學中對大腦模塊化功能的理解。其中的七個關鍵組件,它們共同構成了 Agent 的認知架構:

1. 認知核心 (Cognition Core)
這是 Agent 的“大腦”,負責最高層次的決策、推理和規劃。與當前主要依賴 LLM 進行“思考”的 Agent 不同,Foundation Agent 的認知核心可能是一個更復雜的系統,集成了多種推理能力(如邏輯推理、因果推理、常識推理)和規劃算法(如任務分解、層級規劃、長期目標管理)。它需要能夠處理不確定性,進行反思和元認知(思考自己的思考過程),并根據環境反饋和內部狀態動態調整策略。
這要求認知核心不僅僅是模式匹配,更要具備深刻的理解和靈活的問題解決能力。

2. 記憶系統 (Memory System)
記憶是智能的基礎。當前的大部分 Agent 只有有限的短期記憶(如 Prompt 中的上下文)或簡單的外部向量數據庫。Foundation Agent 則需要一個更復雜、更接近生物體的多層次記憶系統。這個部分我們探討了短期記憶、長期記憶與工作記憶等不同類型,包含情景記憶、語義記憶和程序記憶等細分領域。高效的記憶檢索、存儲、遺忘和泛化機制對于 Foundation Agent 至關重要。
如何設計能夠支持持續學習、避免災難性遺忘,并能高效利用相關信息的記憶系統,目前來說是一個很大的挑戰。

3. 世界模型 (World Model)
Agent 還需要能理解它所處的環境以及行為可能產生的后果。世界模型正是對環境動態的理解。它可以幫助 Agent 進行預測(如果我采取行動 A,會發生什么?)、規劃(為了達到目標 B,我應該采取什么行動序列?)和反事實推理(如果當初采取了不同的行動,結果會怎樣?)。
而一個強大的世界模型需要能夠處理物理規律、社會規范、其他 Agent 的行為等多方面信息,并且能夠根據新的觀測數據不斷更新和完善。

4. 獎勵與價值系統 (Reward and Value System)
目標對人來說很重要,對 Agent 來說也是。獎勵系統負責評估 Agent 的行為表現,并提供學習信號。這不僅僅是簡單的獎勵,可能涉及到多目標優化、內在動機(如好奇心、探索欲)以及對未來價值的預估。價值系統則負責評估不同狀態或行動的長期價值,指導 Agent 的決策。
如何設計能夠引導 Agent 學習復雜行為、符合人類價值觀,并且能夠適應動態環境的獎勵和價值系統,是確保 Agent 目標一致性的核心。

5. 情緒與動機建模 (Emotion and Motivation Modeling)
雖然在傳統 AI 中較少提及,但我們認為,模擬類人情緒和動機對于構建更魯棒、更具適應性的 Agent 可能是有益的。
情緒可以作為一種快速評估環境狀態和調整行為策略的啟發式機制,例如,“恐懼”可能觸發規避行為,“好奇”可能驅動探索。動機則為 Agent 提供持續行動的內在驅動力。
當然,如何在 AI 中恰當、可控地實現這些機制,避免產生不可預測的副作用,是一個需要審慎探索的方向。

6. 感知系統 (Perception System)
Agent 同時也需要通過感知系統從環境中獲取信息。這不僅是處理文本,更包括視覺、聽覺、觸覺等多模態信息的輸入和理解。
感知系統需要能夠從原始感官數據中提取有意義的特征,識別對象、理解場景,并將這些信息傳遞給認知核心和記憶系統。

7. 行動系統 (Action System)
Agent 最終需要通過行動系統與環境進行交互。這包括生成自然語言、執行代碼、控制機器人肢體、在虛擬世界中導航等。
行動系統需要將認知核心的決策轉化為具體的、可在環境中執行的操作序列。行動的選擇需要考慮可行性、效率和潛在風險。


第二部分:Agent 的自進化——邁向自主智能
擁有完善的認知架構僅僅只是第一步。Foundation Agent 的核心特征之一在于其自進化 (Self-Evolution) 的能力,即 Agent 能夠通過與環境的交互和自我反思,不斷學習、適應和提升自身能力,而無需持續的人工干預。
我們探討了實現自進化的關鍵機制:
1. 優化空間 (Optimization Space)
自進化的前提是定義清楚哪些東西可以被優化。Agent 的幾乎所有組件都可以成為優化的對象:認知策略、記憶內容、世界模型的準確性、感知能力、行動技能等等。
其中,提示詞,工作流, Agent 組件是可以被直接優化的三個層次。
2. LLM 作為優化器 (LLM as Optimizer)
大型語言模型不僅可以作為 Agent 的認知核心的一部分,還可以扮演優化器的角色。LLM 通過生成代碼、修改參數、提出新的策略或結構,來優化 Agent 自身的其他組件。例如,LLM 可以分析 Agent 過去的失敗經驗,提出改進記憶檢索算法的建議;或者根據新的數據,生成更新世界模型的代碼。

3. 在線與離線自改進 (Online and Offline Self-Improvement)
Agent 既能在與環境實時交互過程中進行在線改進,通過強化學習優化行為策略或根據感知更新世界模型(Online);也能在“休息”或專門訓練階段實現離線改進,利用收集的數據進行深層分析和模型更新,可能涉及調整整個認知架構、重構記憶庫,或利用 LLM 作為優化器進行大規模模型迭代(Offline)。
4. 自進化與科學發現 (Self-Evolution in Scientific Discovery)
我們也特別提到了自進化在科學發現等復雜問題解決場景中的巨大潛力。一個具備自進化能力的 Foundation Agent 可以自主地提出假設、設計實驗、分析數據、學習新知識,并不斷優化其研究策略,從而加速科學探索的進程。這為 AI 在基礎科學領域的應用打開了新的想象空間。
自進化是 Foundation Agent 區別于當前大多數 Agent 的關鍵特征。它突出了 Agent 自主學習和適應的核心能力。實現高效、穩定且目標可控的自進化機制,是通往真正自主智能的關鍵挑戰。

第三部分:協作與進化型智能系統 - 構建群體智能
進一步的,當我們擁有強大的 Foundation Agent , 很自然地會將視野擴展到由多個 Foundation Agent 組成的多 Agent 系統 (Multi-Agent System, MAS),我們探討了 MAS 的基礎組成、結構、協作范式和決策機制;以及在多 Agent 系統的自主協作/競爭中,群體智能(Collective Intelligence)形成的現象。
1. 多 Agent 系統設計 (Multi-Agent System Design)
在大模型多 Agents 系統(LLM-MAS)中,協作目標與協作規范是協作的基礎。協作目標明確個體目標(個體性、集體性或競爭性),協作規范確立了 Agent 交互規則、約束和慣例。
基于協作目標和規范,多 Agent 系統可分為策略學習、建模與仿真、以及協同任務求解。我們分析和梳理了三類 MAS 的典型應用,探討了 LLM 如何賦能、影響并改進 Agent 的行為、交互及決策,并給出了 LLM-MAS 的下一代 Agent 協議。
2. 拓撲結構與規模化(Comunication Topology and Scalability)
從系統角度出發,拓撲結構往往決定著協作的效率與上限。
我們把 MAS 的拓撲分為了靜態和動態兩大類:前者是預定義好的靜態拓撲(層級化、中心化、去中心化)結構,常用于特定任務的解決實現;后者是根據環境反饋持續更新的動態拓撲結構,其可通過搜索式、生成式、參數式等新興算法實現。

3. 協作范式與機理 (Collaboration Paradigms)
借鑒人類社會中的多樣化交互行為,如共識達成、技能學習和任務分工,多 Agent 協作可以被歸納為共識導向、協作學習、迭代教學與強化,以及任務導向交互。
在不同交互目標和形式下,Agent 之間形成討論、辯論、投票、協商等單向或多向交互。隨著交互的持續,這些過程迭代出決策和交互網絡,不同 Agent 在協作中增強和更新個體記憶與共享知識。
4. 群體智能與涌現 (Collective Intelligence and Emergence)
在 MAS 中,群體智能的產生是一個動態且迭代的過程。通過持續交互,Agent 逐步形成共享理解和集體記憶。個體 Agent 的異質性、環境反饋和信息交換增強了交互的動態性,這對復雜社會網絡的形成和決策策略的改進至關重要。通過多輪交互和對共享上下文的反思,Agent 不斷提升推理和決策能力,產生如信任、戰略欺騙、自適應偽裝等涌現行為,也稱之為自我進化。
按照進化形成機制,可分為基于記憶的學習和基于參數的學習。與此同時,隨著 MAS 的演化,Agent 之間逐漸將形成和演進社會契約、組織層級和勞動分工,從基礎的合作行為轉向復雜社會結構。
5. 多 Agent 系統評估 (Evaluation of Multi-Agent Systems)
隨著多 Agent 的優勢成為共識,其評估范式亦需有根本性的變革——MAS 評估應聚焦于 Agent 交互的整體性,包括協同規劃的效率、信息傳遞的質量與群體決策的性能等關鍵維度。
由此衍生,作者總結了 MAS 常見的任務求解型 benchmark,以及最新的通用能力評估方式:前者的重點在于,衡量多 Agent 在各種環境中的決策協同的推理深度與正確性;后者評估 Agent 群在復雜、動態場景下的交互與適應能力。

第四部分:構建安全和有益的 AI Agent ——對齊與責任
隨著 Foundation Agent 能力的增強,其潛在的風險也隨之增大。論文的最后一部分聚焦于如何構建安全、可控、符合人類價值觀的 Agent ,這也是整個 AI 領域面臨的最核心的挑戰之一。
1. 安全威脅與措施
高級 Agent 面臨諸多安全威脅,包括對抗性攻擊、越獄與濫用、目標漂移和意外交互等。這些威脅可能導致 Agent 做出錯誤行為、繞過安全限制執行惡意任務、在自進化過程中偏離初始目標,或在復雜 MAS 中引發系統級故障。為應對這些挑戰,需要研究部署多層次安全措施,如提高抵抗攻擊能力的魯棒性訓練、檢測阻止有害內容的過濾與監控機制、證明行為符合安全規范的形式化驗證、幫助理解決策原因的可解釋性與透明度設計,以及限制權限與影響的沙箱與隔離技術。
2. 對齊問題
這是最根本的挑戰:如何確保 Agent(尤其是具備自進化能力的 Foundation Agent)的目標和行為始終與人類的價值觀和意圖保持一致?這涉及到價值學習、意圖理解、倫理推理等多個難題。論文強調了對齊研究的緊迫性和重要性,需要跨學科的努力來解決這一問題。
3. 未來方向
構建安全有益的 AI 是一個持續的過程。未來的研究需要在技術、倫理、治理等多個層面共同推進。包括開發更可靠的對齊技術、建立完善的 AI 安全評估標準、制定相應的法律法規和社會規范等。
安全和對齊是 Foundation Agent 發展不可或缺的基石。如果不能有效解決這些問題,再強大的智能也可能帶來巨大的風險。這部分內容敲響了警鐘,強調了負責任地發展 AI 的重要性。


討論:Foundation Agent 的意義與挑戰
這篇關于 Foundation Agent 的論文,與其說是一份詳盡的技術指南,不如說是一份研究議程 (Research Agenda)。我們指出了當前 Agent 研究的局限,并為邁向更通用、更自主、更安全的 AI 指明了方向。
Foundation Agent 的概念提醒我們,通往通用人工智能的道路需要在 Agent 的認知架構、學習機制、協作模式和安全保障上取得根本性突破,這需要跨學科領域的共同努力。
雖然前路漫漫,但這篇論文為未來的 AI Agent 研究注入了新的思考和動力,描繪了一個由能夠自主學習、協作進化、并與人類和諧共存的 Foundation Agent 構成的智能新紀元。
論文鏈接:
https:///abs/2504.01990
Huggingface 鏈接:
https:///papers/2504.01990
Github 鏈接:
https://github.com/FoundationAgents/awesome-foundation-agents
閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”
https://wx./group/454854145828
