≡ AI百科
什么是对抗样本(Adversarial Examples) – AI百科知识
对抗样本(Adversarial Examples)作为机器学习领域的一个独特现象,通过在输入数据中巧妙地植入难以察觉的扰动,能误导深度学习模型做出错误的预测。揭示了当前人工智能系统的脆弱性,也激发了对模型鲁棒性提升的深入研究。随着对抗样本技术的发展,对抗样本技术正逐渐成为推动人工智能安全性和可靠性研究的重要力量,对未来智能系统的设计和部署产生深远影响。