ISSN 1009-5624 CN 10-2021/TQ 主管:中国乐凯集团有限公司 主办:北京乐凯科技有限公司
【摘要】人工智能(AI)模型在面对对抗性攻击时易出现性能下降与预测错误,会影响其在关键任务中的稳定性与可信性。 本文针对模型在复杂环境下的安全威胁,系统研究了对抗性攻击的生成机制、攻击方式及其对准确性、鲁棒性和公平性的影响,提出了基于数据增强、模型优化与异常检测的多重防御策略,并构建了覆盖数据层、模型层与应用层的防御体系。 实验表明:所提方法在提升模型抗攻击能力与保持性能稳定性方面具有显著效果。 本研究可为构建安全可靠的 AI 系统提供理论基础和技术支撑。