炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:机器之心Pro)

近年来,单步扩散模型因其出色的生成性能和极高的推理效率,在图像生成、文本到视频、图像编辑等领域大放异彩。目前主流的训练方法是通过知识蒸馏,最小化学生模型与教师扩散模型之间的分布差异。然而,现有的方法主要集中在两条平行的理论技术路线上:
这两条路线似乎在理论上是割裂的。那么,我们能否将它们统一在一个共同的理论框架下?如果可以,这个统一的框架能否带来更强的模型性能?
来自北京大学、小红书hilab等机构的华人研究者共同提出了名为Uni-Instruct的单步生成大一统理论框架,目前已被NeurIPS2025接收。该框架不仅从理论上统一了超过10种现有的单步扩散模型蒸馏方法,更是在多项任务上取得了当前最佳(SoTA)性能。

其中,经过基于展开的Jeffrey-KL散度(ExpandedJeffrey-KLdivergence)用Uni-Instruct蒸馏得到的一步生图模型在ImageNet-64数据集上取得了历史历史最低1.02的单步生成FID指标,远超了1000步采样的扩散模型(参见图2右表)。
核心贡献:Uni-Instruct理论框架
研究者们提出了一个名为Uni-Instruct的统一理论框架,其核心是创新的f-散度扩散展开定理(diffusionexpansiontheoryofthef-divergencefamily)。

简单来说,该定理推广了DeBruijin等式,将静态的数据空间教师模型与单步模型之间f-散度扩展为沿扩散过程的动态散度积分。
虽然原始的展开形式难以直接优化,但团队通过引入新的梯度等价定理,推导出了一个等价且可计算的损失函数。

最令人惊喜的是,这个最终的损失函数梯度,恰好是Diff-Instruct(DI)梯度和ScoreImplicitMatching(SIM)梯度的一个加权组合!

通过选择不同的f-散度函数(如KL散度、卡方散度等),Uni-Instruct能够恢复出包括Diff-Instruct[1]、DMD[2]、f-distill[5]、SIM[3]、SiD[4]在内的十余种现有方法的损失函数。这不仅为理解现有工作提供了全新的高层视角,也标志着单步扩散模型理论大一统。


图注1:Uni-Instruct一步生成器在不同基准数据集上的生成效果。左:CIFAR10(无条件);中:CIFAR10(有条件);右:ImageNet64x64(有条件)。可以看到,生成样本的质量和多样性都非常出色。

图注2:Uni-Instruct一步生成模型在不同基准数据集上的评测效果。左:CIFAR10(无条件);右:ImageNet64x64(有条件)。可以看到,生成样本的质量和多样性都非常出色。Uni-Instruct模型在两个评测榜单上都取得了巨大性能和效率优势。
实验结果
Uni-Instruct在多个主流基准测试中取得了破纪录的性能:
这些结果全面超越了Diff-Instruct、ScoreImplicitMatching、f-distill、SiDA、DMD、ConsistencyModel等之前的所有一步生成模型,甚至远超需要1000步采样的标准扩散模型。
更广泛的应用:
文本到3D生成
Uni-Instruct的威力不止于2D图像。研究者们将其成功应用于文本到3D生成任务,作为一种知识迁移方法,用以指导NeRF模型的优化。
实验结果表明,相比于SDS和VSD等现有方法,Uni-Instruct能够在生成3D内容的质量和多样性上取得更优异的效果。
图注3:左图:ProlificDreamer右图:Uni-Instruct总结与展望
Uni-Instruct提供了一个坚实的理论基础,成功地将十余种看似不同的扩散模型蒸馏方法囊括在一个统一的框架之下。这种理论大一统不仅带来了对高效扩散模型的深刻理解,其卓越的实证性能也为高效生成模型的未来研究开辟了新的道路。这项工作是高效生成模型领域的一次重要理论突破,我们期待它能激发更多关于扩散模型知识迁移和高效生成的前沿探索!
本工作由北京大学计算科学成像实验室本科生王翼飞与博士生柏为民合作完成。本论文的通讯作者罗维俭在北京大学数学院取得博士学位,现供职于小红书hilab任多模态大模型研究员。末位作者为北京大学未来技术学院孙赫助理教授。
[1]Luo,Weijian,etal./"Diff-instruct:Auniversalapproachfortransferringknowledgefrompre-traineddiffusionmodels./"AdvancesinNeuralInformationProcessingSystems36(2023):76525-76546.
[2]Yin,Tianwei,etal./"One-stepdiffusionwithdistributionmatchingdistillation./"ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition.2024.
[3]Luo,Weijian,etal./"One-stepdiffusiondistillationthroughscoreimplicitmatching./"AdvancesinNeuralInformationProcessingSystems37(2024):115377-115408.
[4]Zhou,Mingyuan,etal./"Scoreidentitydistillation:Exponentiallyfastdistillationofpretraineddiffusionmodelsforone-stepgeneration./"Forty-firstInternationalConferenceonMachineLearning.2024.
[5]Xu,Yilun,WeiliNie,andArashVahdat./"One-stepDiffusionModelswith$f$-DivergenceDistributionMatching./"arXivpreprintarXiv:2502.15681(2025)
海量资讯、精准解读,尽在新浪财经APP
未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事 » 北大联合小红书提出Uni-Instruct:ImageNet生图FID进入1.0时代!
头条资讯网_今日热点_娱乐才是你关心的时事








