对抗样本(Adversarial Examples)定义:是指通过对原始输入数据(如图像、文本、语音)施加人类难以察觉的微小扰动,导致机器学习模型(尤其是深度学习模型)做出错误预测的特殊样本。其核心矛盾在于:人类感知不到输入的变化,但模型的决策边界对这类扰动异常敏感。
对抗样本用处:对抗样本的价值体现在 **“攻防两端”**:既可能被用于恶意攻击,也能作为工具推动 AI 模型的鲁棒性提升
对抗样本(Adversarial Examples)定义:是指通过对原始输入数据(如图像、文本、语音)施加人类难以察觉的微小扰动,导致机器学习模型(尤其是深度学习模型)做出错误预测的特殊样本。其核心矛盾在于:人类感知不到输入的变化,但模型的决策边界对这类扰动异常敏感。
对抗样本用处:对抗样本的价值体现在 **“攻防两端”**:既可能被用于恶意攻击,也能作为工具推动 AI 模型的鲁棒性提升