arXiv ID:
2602.19624
基于鲁棒重检测的精确平面跟踪 / Accurate Planar Tracking With Robust Re-Detection
1️⃣ 一句话总结
这篇论文提出了两种新的平面跟踪方法,通过结合先进的图像分割技术和鲁棒的重检测机制,在目标外观变化时也能实现高精度的跟踪,并在主流测试集上取得了目前最好的性能。
基于鲁棒重检测的精确平面跟踪 / Accurate Planar Tracking With Robust Re-Detection
这篇论文提出了两种新的平面跟踪方法,通过结合先进的图像分割技术和鲁棒的重检测机制,在目标外观变化时也能实现高精度的跟踪,并在主流测试集上取得了目前最好的性能。
基于对比元域自适应的鲁棒性皮肤病变分类方法 / Contrastive meta-domain adaptation for robust skin lesion classification across clinical and acquisition conditions
这篇论文提出了一种新的自适应方法,通过将大规模皮肤镜图像数据集的知识迁移到临床图像领域,有效解决了深度学习模型在真实医疗环境中因图像采集差异而性能下降的问题,从而提升了皮肤病变分类的准确性和鲁棒性。
ExpPortrait:通过个性化表征生成富有表现力的肖像 / ExpPortrait: Expressive Portrait Generation via Personalized Representation
这篇论文提出了一种新的高保真个性化头部表征方法,能更好地分离表情和身份信息,并基于此训练了一个扩散模型,从而生成在身份保持、表情准确性和细节丰富度上都更优的富有表现力的肖像视频。
StructXLIP:利用多模态结构线索增强视觉语言模型 / StructXLIP: Enhancing Vision-language Models with Multimodal Structural Cues
这篇论文提出了一种名为StructXLIP的微调方法,通过提取并专门对齐图像边缘图和文本中的结构信息,显著提升了视觉语言模型在细节丰富的跨模态检索任务上的性能,使其学习到更鲁棒和语义稳定的特征。
Flow3r:用于可扩展视觉几何学习的分解式光流预测 / Flow3r: Factored Flow Prediction for Scalable Visual Geometry Learning
这篇论文提出了一种名为Flow3r的新方法,它通过分解式的光流预测,利用大量无标签的单目视频来学习三维场景几何和相机运动,从而在静态和动态场景重建任务上都取得了领先的性能,尤其是在真实动态视频这种标注数据稀缺的场景中效果提升最明显。
OSInsert:迈向高真实感与高保真度的图像合成 / OSInsert: Towards High-authenticity and High-fidelity Image Composition
这篇论文提出了一个名为OSInsert的两阶段图像合成新方法,它通过先调整前景物体形状以适应背景(高真实感),再精确保留前景细节(高保真度),从而首次同时实现了合成图像既自然逼真又细节清晰的目标。
RADE-Net:一种用于恶劣天气下纯雷达目标检测的鲁棒注意力网络 / RADE-Net: Robust Attention Network for Radar-Only Object Detection in Adverse Weather
本文提出了一种名为RADE-Net的轻量级神经网络,它通过一种创新的三维数据压缩方法,高效处理雷达原始数据,在雨雪等恶劣天气下实现了比传统雷达方法甚至部分激光雷达方法更准确、更快速的三维物体检测。
数字化艺术作品的图像志分类与基于内容的推荐 / Iconographic Classification and Content-Based Recommendation for Digitized Artworks
这篇论文开发了一个概念验证系统,它利用人工智能自动识别艺术品中的视觉元素,并通过一个标准化的符号体系(Iconclass)来理解其深层含义,从而实现对数字化艺术作品的自动分类和智能推荐,以帮助人们更高效地管理和探索大型文化遗产数据库。
视觉Transformer的遗忘能力基准测试 / Benchmarking Unlearning for Vision Transformers
这篇论文首次为视觉Transformer建立了机器遗忘能力的基准测试框架,通过系统评估不同算法在不同模型和数据上的表现,揭示了视觉Transformer的记忆特性,并为未来开发更安全、公平的AI提供了可复现的评估基础。
DICArt:在离散状态空间中推进类别级铰接物体姿态估计 / DICArt: Advancing Category-level Articulated Object Pose Estimation in Discrete State-Spaces
这篇论文提出了一种名为DICArt的新方法,它将复杂的铰接物体(如关节可动的机器人手臂或家具)的姿态估计问题,转化为一个在离散空间中进行‘去噪’的生成过程,并通过动态决策和分层结构约束,显著提升了估计的准确性和鲁棒性。
请先 登录 后再提交论文