微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Adversarial Robustness Toolbox 检测模型及对抗攻击的工具箱​

程序名称:Adversarial Robustness Toolbox

授权协议: MIT

操作系统: 跨平台

开发语言: Python

Adversarial Robustness Toolbox 介绍

Adversarial Robustness ToolBox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI
模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。

支持以下攻击和防御的方法

  • Deep Fool

  • Fast Gradient Method

  • Jacobian Saliency Map

  • Universal Perturbation

  • Virtual Adversarial Method

  • C&W Attack

  • NewtonFool

防御方法

  • Feature squeezing

  • Spatial smoothing

  • Label smoothing

  • Adversarial training

  • Virtual adversarial training

Adversarial Robustness Toolbox 官网

https://github.com/IBM/adversarial-robustness-toolbox

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐