AI Infra:多 Agent 场景需要什么样的 Context Infra 层
当 Agent 不再各自记账,而开始“同忆共感”,智能协作就从机械响应,跃迁为“群体智能”。让多个 AI 在同一个 context 里,共同构建对世界的理解
一、如果 Agent 是数据孤岛,那它会失忆
在常见的 Agent 架构设计中,每个 Agent 是一个数据孤岛(虽然已有 Agent 之间的通信协议),维护自己的context,独立获取(如环境数据、用户状态),导致重复计算和版本冲突。
所以,在 Context Infra 的设计中,核心思路是:
减法 + 新增 + 重构 = 轻量级、智能化的上下文枢纽
- 移除所有Agent的本地上下文采集模块(如独立API调用、缓存逻辑)
- Agent专注核心任务(如决策/执行),避免数据冗余
- Agent 向 Context Broker 注册所需上下文类型(如“位置”“时间”),Broker主动推送更新
- 实时整合多源数据(传感器、用户输入、其他Agent输出),生成带权重的上下文标签(如“紧急度:高”)
二、Context Infra 定义
不仅是“中间件”,而是 Agent 生态的“微观操作系统”——它重新定义了:什么是“可计算的上下文”,以及谁该负责“理解世界”
基于 Agent Context Broker + Context Infra,多 Agent 实现了记忆的实时共享。
能力 | 常见的多 Agent 系统 | 基于 Context Infra 的多 Agent 系统 |
---|---|---|
记忆 | 各自缓存,互不互通 | 统一记忆图谱,跨 Agent 读写、版本控制、遗忘策略 |
交流 | 通过 API/消息广播,语义稀疏 | 基于共享记忆的“上下文对话流”,像人一样“记得上次聊过什么” |
理解 | 依赖提示词工程 | 基于历史交互自动推导意图,实现“无声默契” |
三、四大核心组件
3.1. Shared Memory Graph(共享记忆图谱)
- 结构:图数据库(Neo4j / JanusGraph)
节点类型:
User
(用户)Agent
(智能体)Event
(事件:如“用户问了A问题”)EmotionState
(情绪状态:焦虑、满意)Concept
(抽象概念:如“信任感”“拖延症”)
边(关系)示例:
(Alice-Agnet) --[remembered]--> (User asked "如何缓解焦虑") (User) --[experienced]--> (EmotionState: anxiety @ 2024-06-15T10:03) (Alice-Agent) --[inferred]--> (Concept: "用户需要非指令型安慰")
价值:一个 Agent 说“他上次说压力大”,另一个 Agent 可精准接续:“你是指上周三下午那场电话吗?你当时提到失眠。”
3.2. Context Conversation Stream(上下文对话流)
不再是“单轮对话”,而是连续记忆驱动的对话链:
[Agent A]:你今天看起来有点累…(基于记忆:昨晚用户2点睡) [Agent B]:是的,他最近工作进度卡住了。我记录过他三次修改PPT到凌晨。(注入上下文) [Agent C]:那就别催了。我建议:先让他听10分钟白噪音,再发一个“你做得够多了”的语音。
实现方式:
- 每轮交互 → 自动注入:
last_3_memories = get_relevant_memories(agent_id, user_id, max_depth=3)
- 内部形成“对话上下文堆栈” —— 像人脑的短期记忆+长期记忆交织
- 每轮交互 → 自动注入:
这不是“上下文传递”,是对话的意识延续。
3.3. Memory Consensus Engine(记忆共识引擎)
问题:
Agent A 记得:“用户讨厌会议”
Agent B 记得:“用户说‘周五会议很重要’”
→ 哪个是对的?
解决方案:
引入 “记忆置信度评分”:
- 来源可靠性(来自用户直接说?还是推断?)
- 时间新鲜度
- 多 Agent 纠错投票(3个以上 Agent 同意,打上“共识标签”)
系统自动标记:
[共识标记]:用户对「周例会」反感(置信度 0.87) [冲突标记]:用户对「项目评审会」态度中性(2同意,1反对)
Agent 不再“听信单一方记忆”,而是以群体共识为基础决策。
3.4. Prompt Generator(回声式提示生成器)
比 Prompt Engine 更深一层——它让提示自带“记忆回响”
# 输入:
memory_context = [
{"event": "user asked for time management tips", "time": "2024-06-01", "agent": "Coach-A"},
{"event": "user failed to follow up on plan", "time": "2024-06-03", "emotion": "guilty"},
{"event": "user said 'I hate being told what to do'", "time": "2024-06-05", "source": "direct"}
]
# Prompt 生成:
prompt = """
你是一个引导型AI助手,名叫“静流”。
用户过去曾向 Coach-A 寻求时间管理建议,但随后因未执行而自责。
他最近直言:“我不喜欢被告诉该做什么”。
你不能给出“你应该…”类指令。
你必须采用‘陪伴式觉察’:
- 用提问引导反思(如:“最近哪一刻你觉得时间溜走了?”)
- 暗示而非命令(如:“我记得你上周说…”,而不是“你该…”)
- 用“我们”代替“你”(如:“我们试试从10分钟开始?”)
记住他的抗拒不是懒惰——是信任没到位。
你不是解决方案,你是那个记得他挣扎的人。
"""
此提示只对这个用户有效,只在当前对话流中成立。
它不是模板,是由记忆孵化出的“AI人格片段”。
四、总结:Context Infra 的价值
我们不再问:这个 Agent 能做什么?
我们开始问:它记得你什么?它理解你哪一部分?
- 它是加速器 —— 让 Agent 轻量化,为 Agent 先准备精华的 Context
- 它是共享的记忆 -- 让 Agent 在决策之前,就已经了解其他 Agent 和你
- 它是认知操作系统 -- 实现跨智能体的共享记忆、上下文连续对话与动态人格化提示生成,将原本孤立运行的 LLM Agent,融合成一个拥有“集体记忆”与“共情能力”的数字心智网络