← 返回列表

菜单

🤖 系统
📄 Abstract - Delta Activations: Representing Fine-tuned Language Models through Internal Activation Differences
正在获取摘要...
顶级标签: llm
详细标签: model representation fine-tuning analysis internal activations model clustering activation differences 或 搜索:

📄 论文总结

Delta Activations:通过内部激活差异表示微调语言模型

Delta Activations: Representing Fine-tuned Language Models through Internal Activation Differences


1️⃣ 一句话总结

本研究提出了Delta Activations方法,通过测量微调模型与基础模型在内部激活状态上的差异来生成模型向量表示,该方法无需依赖训练数据,能有效按领域和任务对模型进行聚类,并具有跨微调设置的鲁棒性和数据集混合时的可加性。


2️⃣ 论文创新点

1. Delta Activations表示方法

2. 嵌入空间的可加性

3. Delta-X框架扩展

4. 通用探测数据集设计


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF