Fast Feature Fool: A data independent approach to universal adversarial perturbations

Introduction

  • 以前的 UAP 都需要依赖于数据,性能与训练数据量成正比。
  • 本方法通过在 CNN 不同层学到的特征实现 fooling ,证明了在单层中学习到的特征如果被更改,可以导致最终的分类错误。

UAP

  • $f(x+\delta) \ne f(x)$, for most $x \in \mathcal{X}$
  • $||\delta||_\infty \lt \xi$

Fast Feature Fool

  • 不可以使用 UAP 的第一条公式,因为不能借助数据 $x$ 。
  • 对于每一层,我们尝试 fool 当前层的特征并将错误的信息传向下一层,直到最后一层产生错误的结果。
  • 方法

    • $Loss=-\log (\prod\limits_{i=1}^K \bar{l_i}(\delta))$ such that $||\delta||_\infty \lt \xi$
    • 其中 $\bar{l_i}$ 是第 $i$ 层之后的激活层的平均值, $i$ 只考虑全连接层之前的卷积层。
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇