北京,2025年11月22日——清华大学与人工智能企业面壁智能(ModelBest)联合研究团队,近期在国际权威期刊《自然・机器智能》(Nature Machine Intelligence)上发表了一项前沿研究成果,提出并论证了人工智能大模型的“能力密度”(Capability Density)评估体系,指出AI模型性能应“重密度、轻规模”的发展方向。该研究作为封面文章刊发,为AI模型的小型化和普惠化提供了新思路。
研究团队通过对51个主流开源大模型的系统性分析发现,AI大模型的“能力密度”正以指数级速度增长,大约每3.5个月翻倍。这意味着,在同等任务性能下,所需模型参数量可实现指数级下降。论文第一作者、清华大学计算机科学与技术系助理研究员肖朝军表示,这如同评价武林高手,不应只看其“块头”,更应关注其招式中蕴含的“功力”。
该研究强调,“高密度”并非简单压缩模型,因为强行压缩可能导致模型“智力”损失。实现高能力密度需要“数据-算力-算法”协同设计。这一“密度法则”受到了计算机领域“摩尔定律”的启发,旨在推动AI像芯片一样通过提升密度实现小型化和普惠化。
面壁智能基于这一研究成果,已推出0.5B-2B参数的系列“高密度”模型。这些小型模型在同等下游任务上的性能可达到7B-13B大模型的水平。目前,这些“高密度”模型已规模化应用于手机语音助手、车载交互系统以及智能家居边缘盒子等终端设备。据面壁智能透露,其模型实现了低于100毫秒的推理延迟,并成功将端侧功耗降低45%。
面壁智能CEO李丹表示,公司下一步将与清华大学继续合作,把能力密度提升曲线纳入模型研发的关键绩效指标(KPI),目标是在2026年推出“背包级”个人大模型,使其能够在支持NPU(神经网络处理单元)的智能手表等更小尺寸终端上运行,以此推动“模型小型化”生态的进一步发展。