arXiv ID:
2602.16424
可验证的智能体间通信语义 / Verifiable Semantics for Agent-to-Agent Communication
1️⃣ 一句话总结
这篇论文提出了一种基于刺激-意义模型的认证协议,通过测试智能体对共享可观测事件的理解来验证术语语义的一致性,从而大幅降低智能体间因语义分歧导致的沟通错误。
可验证的智能体间通信语义 / Verifiable Semantics for Agent-to-Agent Communication
这篇论文提出了一种基于刺激-意义模型的认证协议,通过测试智能体对共享可观测事件的理解来验证术语语义的一致性,从而大幅降低智能体间因语义分歧导致的沟通错误。
先校准后行动:大语言模型智能体中的成本感知探索 / Calibrate-Then-Act: Cost-Aware Exploration in LLM Agents
这篇论文提出了一种名为‘先校准后行动’的新方法,通过让大语言模型在执行任务时(如信息检索或编程)明确权衡探索环境的成本与结果的不确定性,从而帮助它们做出更优的决策,比如决定何时停止测试代码并提交最终答案。
面向语义通信的延迟感知人在环路强化学习 / Latency-aware Human-in-the-Loop Reinforcement Learning for Semantic Communications
这篇论文提出了一个结合人类反馈和延迟控制的强化学习框架,用于在保证严格时间要求的前提下,优化语义通信系统的传输质量和资源使用效率。
学习检索可导航候选对象以实现高效视觉语言导航 / Learning to Retrieve Navigable Candidates for Efficient Vision-and-Language Navigation
这篇论文提出了一种检索增强框架,通过引入两层轻量级检索模块来为大语言模型导航提供任务先验并过滤无关选项,从而在不修改模型本身的情况下,显著提升了视觉语言导航任务的效率和稳定性。
基于自然语言反馈改进交互式上下文学习 / Improving Interactive In-Context Learning from Natural Language Feedback
这篇论文提出了一种新方法,通过将单次任务转化为多轮互动训练,教会大型语言模型像人一样从纠正性反馈中学习,从而显著提升了模型在数学、编程等复杂任务上的表现,甚至让小模型达到接近大模型的效果。
视觉说服力:什么影响了视觉-语言模型的决策? / Visual Persuasion: What Influences Decisions of Vision-Language Models?
这篇论文通过让视觉-语言模型在受控的图片选择任务中进行测试,并系统性地修改图片内容,揭示并解释了这些AI模型在做视觉决策(如点击、推荐)时,其选择偏好会受到图片中构图、光线、背景等具体视觉元素的显著影响,从而为提前发现和审计AI的视觉决策漏洞提供了一种方法。
感知型人形机器人跑酷:通过运动匹配链接动态人类技能 / Perceptive Humanoid Parkour: Chaining Dynamic Human Skills via Motion Matching
这篇论文提出了一种让仿人机器人像人类一样自主完成复杂跑酷动作的方法,它通过组合人类动作片段并训练机器人根据实时深度感知自动选择跨越、攀爬等技能,成功让机器人在真实环境中完成了高难度障碍挑战。
共同信念再探讨 / Common Belief Revisited
这篇论文挑战了关于‘共同信念’逻辑属性的传统观点,证明了它并非简单的KD4系统,而是需要增加一个与智能体数量相关的新公理才能完整刻画。
RUVA:个性化的透明设备端图推理 / RUVA: Personalized Transparent On-Device Graph Reasoning
这篇论文提出了一个名为RUVA的‘透明盒子’人工智能架构,它用个人知识图谱替代传统的向量数据库,让用户能够查看和精确编辑AI的记忆,从而解决现有AI系统在隐私保护和错误追溯上的‘黑箱’问题。
通过多计划数据集生成消除目标识别中的规划器偏见 / Removing Planner Bias in Goal Recognition Through Multi-Plan Dataset Generation
这篇论文提出了一种新方法,通过为同一个目标生成多种不同的行动计划来构建数据集,从而消除现有目标识别评估中因依赖单一规划器而产生的系统性偏见,并引入了一个新指标来衡量识别模型在不同计划下的稳健性。
请先 登录 后再提交论文