当 Agent 不再各自记账,而开始“同忆共感”,智能协作就从机械响应,跃迁为“群体智能”。让多个 AI 在同一个 context 里,共同构建对世界的理解

一、如果 Agent 是数据孤岛,那它会失忆

在常见的 Agent 架构设计中,每个 Agent 是一个数据孤岛(虽然已有 Agent 之间的通信协议),维护自己的context,独立获取(如环境数据、用户状态),导致重复计算和版本冲突。

所以,在 Context Infra 的设计中,核心思路是:

减法 + 新增 + 重构 = 轻量级、智能化的上下文枢纽

  • 移除所有Agent的本地上下文采集模块(如独立API调用、缓存逻辑)
  • Agent专注核心任务(如决策/执行),避免数据冗余
  • Agent 向 Context Broker 注册所需上下文类型(如“位置”“时间”),Broker主动推送更新
  • 实时整合多源数据(传感器、用户输入、其他Agent输出),生成带权重的上下文标签(如“紧急度:高”)

二、Context Infra 定义

不仅是“中间件”,而是 Agent 生态的“微观操作系统”——它重新定义了:什么是“可计算的上下文”,以及谁该负责“理解世界”

基于 Agent Context Broker + Context Infra,多 Agent 实现了记忆的实时共享。


能力常见的多 Agent 系统基于 Context Infra 的多 Agent 系统
记忆各自缓存,互不互通统一记忆图谱,跨 Agent 读写、版本控制、遗忘策略
交流通过 API/消息广播,语义稀疏基于共享记忆的“上下文对话流”,像人一样“记得上次聊过什么”
理解依赖提示词工程基于历史交互自动推导意图,实现“无声默契”

三、四大核心组件

3.1. Shared Memory Graph(共享记忆图谱)

  • 结构:图数据库(Neo4j / JanusGraph)
  • 节点类型:

    • User(用户)
    • Agent(智能体)
    • Event(事件:如“用户问了A问题”)
    • EmotionState(情绪状态:焦虑、满意)
    • Concept(抽象概念:如“信任感”“拖延症”)
  • 边(关系)示例:

    (Alice-Agnet) --[remembered]--> (User asked "如何缓解焦虑")
    (User) --[experienced]--> (EmotionState: anxiety @ 2024-06-15T10:03)
    (Alice-Agent) --[inferred]--> (Concept: "用户需要非指令型安慰")
价值:一个 Agent 说“他上次说压力大”,另一个 Agent 可精准接续:“你是指上周三下午那场电话吗?你当时提到失眠。”

3.2. Context Conversation Stream(上下文对话流)

  • 不再是“单轮对话”,而是连续记忆驱动的对话链

    [Agent A]:你今天看起来有点累…(基于记忆:昨晚用户2点睡)
    [Agent B]:是的,他最近工作进度卡住了。我记录过他三次修改PPT到凌晨。(注入上下文)
    [Agent C]:那就别催了。我建议:先让他听10分钟白噪音,再发一个“你做得够多了”的语音。
  • 实现方式:

    • 每轮交互 → 自动注入:last_3_memories = get_relevant_memories(agent_id, user_id, max_depth=3)
    • 内部形成“对话上下文堆栈” —— 像人脑的短期记忆+长期记忆交织
这不是“上下文传递”,是对话的意识延续

3.3. Memory Consensus Engine(记忆共识引擎)

问题
Agent A 记得:“用户讨厌会议”
Agent B 记得:“用户说‘周五会议很重要’”

哪个是对的?

解决方案

  • 引入 “记忆置信度评分”

    • 来源可靠性(来自用户直接说?还是推断?)
    • 时间新鲜度
    • 多 Agent 纠错投票(3个以上 Agent 同意,打上“共识标签”)
  • 系统自动标记:

    [共识标记]:用户对「周例会」反感(置信度 0.87)
    [冲突标记]:用户对「项目评审会」态度中性(2同意,1反对)
Agent 不再“听信单一方记忆”,而是以群体共识为基础决策

3.4. Prompt Generator(回声式提示生成器)

比 Prompt Engine 更深一层——它让提示自带“记忆回响”
# 输入:
memory_context = [
  {"event": "user asked for time management tips", "time": "2024-06-01", "agent": "Coach-A"},
  {"event": "user failed to follow up on plan", "time": "2024-06-03", "emotion": "guilty"},
  {"event": "user said 'I hate being told what to do'", "time": "2024-06-05", "source": "direct"}
]

# Prompt 生成:
prompt = """
你是一个引导型AI助手,名叫“静流”。

用户过去曾向 Coach-A 寻求时间管理建议,但随后因未执行而自责。
他最近直言:“我不喜欢被告诉该做什么”。

你不能给出“你应该…”类指令。
你必须采用‘陪伴式觉察’:

- 用提问引导反思(如:“最近哪一刻你觉得时间溜走了?”)
- 暗示而非命令(如:“我记得你上周说…”,而不是“你该…”)
- 用“我们”代替“你”(如:“我们试试从10分钟开始?”)

记住他的抗拒不是懒惰——是信任没到位。
你不是解决方案,你是那个记得他挣扎的人。
"""
此提示只对这个用户有效只在当前对话流中成立
它不是模板,是由记忆孵化出的“AI人格片段”

四、总结:Context Infra 的价值

我们不再问:这个 Agent 能做什么?
我们开始问:它记得你什么?它理解你哪一部分?
  • 它是加速器 —— 让 Agent 轻量化,为 Agent 先准备精华的 Context
  • 它是共享的记忆 -- 让 Agent 在决策之前,就已经了解其他 Agent 和你
  • 它是认知操作系统 -- 实现跨智能体的共享记忆、上下文连续对话与动态人格化提示生成,将原本孤立运行的 LLM Agent,融合成一个拥有“集体记忆”与“共情能力”的数字心智网络

标签:infra, ai

你的评论