ISSN 1009-5624 CN 10-2021/TQ 主管:中国乐凯集团有限公司 主办:北京乐凯科技有限公司
【摘要】人工智能(AI)安全检测模型已成为网络安全防御的核心手段,但其“黑箱特性”导致决策过程难以追溯,且现有可解释性方法存在场景适应性差、因果关系不明确、实际落地困难等问题,难以满足合规要求。本文梳理了AI安全检测模型的可解释性需求与挑战,提出一种融合因果推理与安全知识图谱的归因框架,通过“特征级-路径级-因果级”三级流程实现精准溯源,并在典型场景中开展真实案例验证。结果显示,该框架的解释结果与人工分析的一致性达到92%,安全事件处置时间缩短50%以上。定量评估表明,本框架的解释保真度显著优于传统的沙普利可加性解释(SHAP)方法,能够为AI安全工具提供“可解释、可信赖、可落地”的技术支撑。