2019-08-16 11:33:4411524人阅读
人工智能面临的主要安全风险之一就是数据投毒。训练数据污染(数据投毒)可导致人工智能决策错误。通过在训练数据集中加入伪装数据、恶意样本等,导致训练出的算法模型决策出现偏差。
2018-12-12 14:14:0610911人阅读
AdvBox是一款由百度安全实验室研发,在百度大范围使用的AI模型安全工具箱,目前原生支持PaddlePaddle、PyTorch、Caffe2、MxNet、Keras以及TensorFlow平台,方便广大开发者和安全工程师可以使用自己熟悉的框架。
2018-11-22 19:38:4113611人阅读
AI大势滚滚而至,安全风险却隐隐让人不安,百度安全举开源大旗,执“七种武器”,守云管端,护算法大数据,邀天下英豪共守AI新江湖。
2018-11-05 11:27:2114073人阅读
AI技术已经到了落地普及阶段,AIoT终端设备正在逐步走入普通人的生活。AI的出现,让原本单一的硬件产品开始互联互通,人与环境的交互也更加多元。不得不承认,AIoT设备正在为生活场景的变革带来新契机。而与此同时,万物互联时代下的万物安全,也成为了一个不可忽视的问题。
2018-09-26 17:47:0020044人阅读
对抗样本(Adversarial Example Attack)是机器学习模型的一个有趣现象,攻击者通过在源数据上增加人类难以通过感官辨识到的细微改变,但是却可以让机器学习模型接受并做出错误的分类决定。一个典型的场景就是图像分类模型的对抗样本,通过在图片上叠加精心构造的变化量,在肉眼难以察觉的情况下,让分类模型产生误判。
2018-09-21 12:02:1212483人阅读
AdvBox是一款支持PaddlePaddle、Caffe2、Keras以及TensorFlow的针对AI模型生成对抗样本的工具包。
2018-08-17 14:21:3111485人阅读
AdvBox是一款支持PaddlePaddle、Caffe2以及TensorFlow的针对深度学习模型生成对抗样本的工具包。
2018-02-26 16:19:5613738人阅读
对抗样本广泛存在于深度神经网络中,其表现出来的显著反直观特点吸引了越来越多的研究者进入对抗样本检测、生成与防御研究领域。对抗样本工具包能够为研究者深入开展研究提供极大的便利,免去重复“造轮子”,高效地使用最新的生成方法构造对抗样本数据集用于对抗样本的特征统计、攻击全新的AI应用抑或是加固业务AI模型。