Meta AI的研究人员近日推出了一款名为Matrix的去中心化框架,旨在彻底改革多智能体合成数据生成的方式。该框架通过解决传统中心化调度系统面临的瓶颈问题,显著提升了大型语言模型(LLM)训练所需数据的生成效率和多样性。
在当前人工智能模型训练日益依赖合成对话、工具轨迹和推理链的背景下,现有系统通常采用中心控制器或领域专用设置,这会导致图形处理器(GPU)资源浪费、协调开销增加以及数据多样性受限。Matrix框架的核心创新在于其去中心化设计,将控制流和数据流序列化为消息对象,并通过分布式队列进行处理。
具体而言,Matrix利用Ray集群实现点对点智能体调度。每个无状态智能体作为Ray的actor,从分布式队列中获取调度器消息,执行其特定逻辑后,更新状态并直接传递给下一个智能体,从而消除了内循环中的中心调度器。这种设计不仅减少了由于不同轨迹长度差异导致的空闲时间,也使得故障处理更具局部性。
性能测试显示,Matrix在实际工作负载中能够提供2到15倍的更高令牌吞吐量,同时保持输出数据的质量。例如,在Collaborative Reasoner的对话生成任务中,Matrix实现了高达2亿的令牌吞吐量,远超传统方法的0.62亿。在NaturalReasoning数据集构建中,吞吐量提升了2.1倍;而在Tau2-Bench工具使用轨迹评估中,更是达到了15.4倍的吞吐量提升。
该框架构建于SLURM、Ray、vLLM、SGLang和Apptainer等开源技术栈之上,并能够扩展支持数万个并发多智能体工作流,适用于合成数据生成、基准测试和数据处理等多种应用场景。此外,Matrix还引入了消息卸载机制,当对话历史记录超出设定阈值时,会将大量负载存储在Ray的对象存储中,仅在调度器中保留对象标识符,有效降低了集群带宽需求。
Matrix框架的发布,标志着Meta AI在高效、可扩展的合成数据生成领域取得了重要进展,为未来大规模AI模型的发展提供了更强大的数据支持。相关研究论文已发布于预印本平台arXiv,进一步详细阐述了其技术细节与实验结果。