大模型行研:Agorap rotocol - 让不同大模型Agent能对话的协议
Agora,是一种元协议,可以实现异构大语言模型(LLM)驱动 Agent 智能体之间的高效和可扩展通信
https://agoraprotocol.org/
一、为什么需要让不同大模型的 agent 能对话
在实操中,异构多模型的部署,是一种必然。不同 agent 之间的通信,既会发生在同企业的不同部门之间,也会发生在不同企业的不同部门之间,重点是多 agent 如何协同工作,可以理解成不同大模型之间相互对话
二、智能体通信三难困境
在设计大规模智能体网络的通信协议时,需要同时满足以下三个要求:
- versatility(通用性):通信协议应该支持各种类型和格式的消息传递
- efficiency(高效性):运行智能体和网络通信的计算成本应该尽可能低
- portability(可移植性):支持通信协议应该尽可能减少人工参与
三、实现去中心化协议多主要技术挑战
- LLM的异构性:不同的LLM有不同的架构、制造商、功能和使用政策,标准化和互操作性很困难
- LLM是通用工具:枚举和标准化每个LLM可以执行的任务是不可行的
- LLM的计算成本高昂:即使是"小"型LLM,其计算开销和推理时间也远远超过可比的专用API
- 自然语言通信的局限性:尽管自然语言表达能力强,但计算开销大,容易产生歧义和错误
标签:AI