arXiv ID:
2603.14830
arXiv 提交日期: 2026-03-16
数据集蒸馏通过基于梯度的非线性任务学习高效编码低维表示 / Dataset Distillation Efficiently Encodes Low-Dimensional Representations from Gradient-Based Learning of Non-Linear Tasks
1️⃣ 一句话总结
这篇论文从理论上证明了,对于具有内在低维结构的非线性学习任务,基于梯度的数据集蒸馏方法能够高效地将任务的核心信息压缩到少量合成数据中,从而用远小于原始数据集的内存开销训练出性能良好的模型。