arXiv ID:
2605.03969
arXiv 提交日期: 2026-05-05
基于特征增强的Transformer模型:实现跨领域与跨生成器的鲁棒性AI文本检测 / Feature-Augmented Transformers for Robust AI-Text Detection Across Domains and Generators
1️⃣ 一句话总结
本文提出一种通过注意力机制融合语言特征(如可读性和词汇特征)的Transformer检测器(DeBERTa-v3-base+FeatAttn),在固定阈值下实现跨领域、跨生成器的稳健AI文本检测,在M4基准上达到85.9%的平衡准确率,显著优于传统BERT/RoBERTa模型及零样本方法。