由于当前AI系统对于人类往往是仅输入输出可见的“黑箱”,使得对 AI 需求强大,结果却又难以令人放心,故而近年来各大国纷纷制定重大计划、投入巨额资金开展可解释AI研究。这也表明,对可解释AI的原创性基础研究,是我军机械化、信息化、智能化三化融合发展、以智能化牵引机械化和信息化水平和能力提升的关键,也是我国在人工智能方面引领世界科技发展的重点。
当前国内外对可解释AI的基础性、整体性、系统性研究还十分稀少;已有的少量研究,也多限于伦理、哲学范围和层次,甚至对“解释”、“理解”等关键概念都还缺乏相对清晰的界定。四川大学罗懋康教授团队以范畴论、序化拓扑、数理逻辑、动力系统、指称语义等数学理论和方法,将判定和决策的缘由回溯和时序回溯过程规范化、形式化、结构化,给出相应数学表示和类型结构、可视模型,而首次提出和建立了“解释”的逻辑层次定义并进而提出可解释AI原理和构建准则、架构,初步建立了AI判断决策的思维层解释生成机制,并对无人战斗机的典型单机对抗行为过程进行机理机制的模拟和功能效应的仿真,并对驱动相应行为的判断决策,给出相应的解释。相关工作获得高度肯定,于2020年底获批军委科技委173计划重点项目支持,批准经费千万余元。
该工作为人工智能领域的核心问题,研究完成后应用领域相当广泛。目前,研究团队已与中航工业成都飞机设计研究所、中国核动力研究设计院围绕智能体对抗行为可解释性、反应堆智能控制可信任性开展了应用研究工作。
中心目前正与中航工业成都飞机设计研究所协商成立联合实验室,围绕包含可解释AI在内的下一代无人战斗机智能对抗相关重大前沿领域开展创新性研究工作。2022年中已提前开展应用研究课题2项,研究经费几百余万元。