
自2025年2月25日起,AAAI 2025大会在美国宾夕法尼亚州费城拉开帷幕,会议将持续为期8天,直至3月4日结束。由国际人工智能促进协会主办的AAAI会议,是人工智能领域历史最悠久、覆盖范围最广的国际顶级学术会议之一,同时被中国计算机学会(CCF)评为A类国际学术会议,每年举办一次。AAAI 2025的有效投稿总数达到12957篇,最终录取3032篇,录取率为23.4%。其中,口头报告论文占比为4.6%。随着大会的进行,AAAI 2025杰出论文奖的获奖作品也正式揭晓,以表彰那些在技术贡献与阐述方面达到最高标准的研究成果。本届杰出论文共有三篇,其中一篇由来自南京大学的周志华教授团队获得,另外两篇则由多伦多大学与波尔多大学的研究者撰写。此外,还有一篇论文获选为“AI对社会影响特别奖”。三篇杰出论文论文1:《Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection》
- 论文地址: https://arxiv.org/pdf/2412.08457
- 机构:南京大学
- 作者:胡文超(Wen-Chao Hu)、戴望州(Wang-Zhou Dai)、姜远(Yuan Jiang)、周志华(Zhi-Hua Zhou)
摘要:神经符号(Neuro-Symbolic,NeSy)人工智能能够模拟人类的双重认知过程,通过神经网络来建模直觉系统1,利用符号推理来建构算法系统2。然而,针对复杂的学习任务,NeSy系统往往输出与领域知识不一致的结果,且修正这些错误的过程颇具挑战性。受人类认知反射的启发,本文提出了一种新颖的机制,能够实时识别直觉反应中的错误,并通过调用符号推理进行必要的修正。具体来说,作者引入了基于溯因学习(Abductive Learning,ABL)框架的溯因反射(ABL-Refl),以提高NeSy系统的纠错能力。ABL-Refl利用领域知识,在训练过程中生成溯因反射向量,从而标识并纠正神经网络输出中的潜在错误,确保推理过程保持一致性。实验表明,ABL-Refl在效率上显著优于现有的最先进(SOTA)NeSy方法,同时以更少的训练资源和更高的效率实现了出色的准确性。论文2:《Every Bit Helps: Achieving the Optimal Distortion with a Few Queries》
- 论文地址: https://www.cs.toronto.edu/~nisarg/papers/value-queries.pdf
- 机构:多伦多大学
- 作者:Soroush Ebadian 、Nisarg Shah
摘要:在多智能体系统中,一个基本任务是将智能体与备选方案(如资源或任务)进行有效匹配。该过程通常依赖于获取智能体对备选方案的排序,而非其确切的数值效用。尽管这一方法简化了信息获取的复杂性,但信息的不完全性可能会导致智能体的效率低下,这种低效率用称为失真度(distortion)的指标来衡量。本研究提出了一种创新的排序算法,用于单边匹配与单一胜者选举。该算法使每个智能体利用有限数量的λ基数查询,从而实现渐进最优的扭曲界限,其中λ为常数。表1和表2则总结了本文的实验结果及在单边匹配和投票方面的对比数据。研究中证明,在单边匹配问题中,仅需进行λ次查询即可实现
的扭曲度。例如,进行三次查询即可实现O(n^(1/3))的扭曲度,优于之前提出的O(log n)查询结果。此外,作者还将上述结果扩展至单一胜者选举问题,证明在任意常数λ的条件下,使用λ次查询同样可实现
的扭曲度,其中n为智能体数量,m为候选者数量。论文3:《Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives》
- 论文地址: https://arxiv.org/pdf/2412.12063
- 机构:波尔多大学、巴黎大学
- 作者:Marius Belly、Nathanaël Fijalkow、Hugo Gimbert、Florian Horn、Guillermo Perez、Pierre Vandenhove
摘要:部分可观测马尔可夫决策过程(POMDPs)是序列决策任务中处理不确定性的重要模型。本文的主要贡献在于为两类POMDPs——弱揭示(weakly revealing)与强揭示(strongly revealing)——构建了精确解法。值得注意的是,这些可判定的情况能够简化为对有限信念支撑的马尔可夫决策过程(finite belief-support Markov decision process)的分析,进而提供一套概念清晰且精确的算法。通过对经典Tiger POMDP问题的揭示版本进行实验,作者将其算法的性能与基于深度强化学习(DRL)的方法进行了比较。结果显示,所提算法在解决揭示型POMDPs时表现优于DRL方法,证明了其有效性。strong>AI对社会影响特别奖在三篇杰出论文之外,AAAI-25还特别颁发了一个关于AI对社会影响(AISI, AI for Social Impact)的研究奖项,该奖项授予的论文题目为《DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets》。
- 论文链接:https://arxiv.org/pdf/2410.19816
- 作者:Elena Sierra,Lauren E. Gillespie,Salim Soltani,Moises Exposito-Alonso,Teja Kattenborn
- 机构:斯坦福大学等
本文的核心讨论在于如何利用志愿者所收集的生物多样性数据集来训练深度学习模型,以监测气候变化对生物多样性的影响。文章提出了一个名为DivShift的分析框架,并构建了名为DivShift-North American West Coast(DivShift-NAWC)的数据集,以研究志愿者收集的数据所固有的偏差对模型性能的影响。参考链接:https://aihub.org/2025/03/01/congratulations-to-the-aaai2025-outstanding-paper-award-winners/
相关AI热点
