当前位置: 首页 > news >正文

对抗样本

对抗样本(Adversarial Examples)定义:是指通过对原始输入数据(如图像、文本、语音)施加人类难以察觉的微小扰动,导致机器学习模型(尤其是深度学习模型)做出错误预测的特殊样本。其核心矛盾在于:人类感知不到输入的变化,但模型的决策边界对这类扰动异常敏感。

对抗样本用处:对抗样本的价值体现在 **“攻防两端”**:既可能被用于恶意攻击,也能作为工具推动 AI 模型的鲁棒性提升

 

http://www.hskmm.com/?act=detail&tid=411

相关文章:

  • 知识蒸馏
  • ssh相关问题
  • CSP 2025 游记
  • KVM虚拟机快照链创建,合并,删除及回滚研究
  • 第一次学dij qwq(p4779
  • 1
  • 2025—2026 赛季记录
  • AI编程新范式:从Coding到Vibe Coding,你准备好了吗?
  • Ubuntu 安装搜狗输入法
  • KD-Tree
  • yyjj
  • 今日随笔
  • 摆放类状压DP基础题
  • 使用 Visual Studio 2022 创建动态库和静态库 - Invinc
  • 软件
  • Laravel PHP 忘记密码如何重置(创建新管理员账号)
  • 打工人必看!昆工MBA“项目管理”杀疯了
  • 第一章 逻辑代数基础 - Wisdom
  • DVectorT虐哭ListT
  • 201912_BUUCTF_Base64隐写
  • 软考达人-案例分析
  • kettle插件-sqlserver cdc插件,从sqlserver获取实时数据so easy,早早下班
  • golang netpoll 底层原理
  • manim如何按绝对时间管理动画
  • MATLAB R2025a安装教程和资源(中文版)
  • Xmanager Power Suite使用教程 - Invinc
  • try hack me.md
  • Snapshot-based State Replication 基于快照的状态复制网络框架,快照同步
  • Transformer通俗讲解
  • Ubuntu 安装微信