张家树教授团队指导的国际留学生在计算机视觉顶刊IJCV发表长篇综述

来源:计算机与人工智能学院 发布日期: Mon Jan 12 00:00:00 CST 2026 浏览次数:511

        近日张家树教授导师团队在国际学生培养方面取得重要成果,2026年1月6日,团队所指导的国际博士生RAZAN ALHARITH在International Journal of Computer Vision (IJCV)发表了长达44页的一篇题为《Concept-Based Explanation for Deep Vision Models: A Comprehensive Survey on Techniques, Taxonomy, Applications, and Recent Advances》综述文章。  IJCV是中国计算机学会(CCF)和中国人工智能学会(CAAI)推荐的A类期刊,也是计算机视觉领域最被认可的两大期刊之一。 2022级计算机科学与技术博士生RAZAN ALHARITH为第一作者,张家树教授为通讯作者,论文作者还包括团队青年教师吴振宇副教授,西南交通大学计算机与人工智能学院为第一单位。

 

 


        人工智能已成为为推动社会进步和经济发展的重要力量,然而,深度学习模型的“黑盒性”常常导致其决策过程难以解释和不可信。因此,提升AI模型透明度,增强用户信任与应用效果的可解释人工智能(XAI)至关重要。
本综述详细总结了人工智能(XAI)的可解释方法,其中,AI模型的概念解释方法(CBX)是利用高级视觉概念代替低级视觉特征,能提供更清晰且更易于理解的模型行为洞察,增强了AI模型推理与人类理解之间的对齐,做出的解释更易理解和有意义。为此,本综述采用一种新的分类法,从数据模态、监督级别、模型级别、解释范围和解释阶段等方面,全面、系统地阐述了面向深度视觉模型的人类更易于理解的概念解释方法(CBX)及其应用研究进展,探讨了当前CBX解释技术的局限性、在深度模型的CBX实现与改进面临挑战,指出了面向深度视觉模型的CBX解释技术未来研究方向。

 

 

        论文链接:https://doi.org/10.1007/s11263-025-02647-5