Adversarial Robustness Toolbox 介绍
Adversarial Robustness ToolBox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI
模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。
-
Deep Fool
-
Fast Gradient Method
-
Jacobian Saliency Map
-
Universal Perturbation
-
Virtual Adversarial Method
-
C&W Attack
-
NewtonFool
防御方法
-
Feature squeezing
-
Spatial smoothing
-
Label smoothing
-
Adversarial training
-
Virtual adversarial training
Adversarial Robustness Toolbox 官网
https://github.com/IBM/adversarial-robustness-toolbox
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。