Abstract之前的文章缺点在于,对于一个classifier,其实会有很多个perturbation,但是universal adversarial perturbation只用了其中的任意一种。本文使用生成模型,对于各种perturbations的分布建模。IntroductionProposed ApproachGANs
Abstract本文提出了一种方法,对于深度神经网络分类器,存在通用的很小的干扰(肉眼难察觉)让分类器做出错误的判断。Introduction本文的贡献在于:证明了通用干扰的存在性给出了找到这种干扰的算法universial体现在两个方面:用很小的训练集就可以训练出对于新图片都大概率有效的干扰对于深度神经网络泛化的很好Universal perturbations$\mu$ 表示 $\mat...
机器学习的核心问题在于泛化。大多数正则化策略是对估计进行正则化,以 bias 的增加换取方差的减少。7.1 Parameter Norm Penalties$\tilde{J}(\pmb{\theta};\pmb{X},\pmb{y})=J(\pmb{\theta};\pmb{X},\pmb{y})+\alpha \Omega(\pmb{\theta})$7.1.1 $L^2$ Parame...
深度前馈网络定义函数 $\pmb{y}=f(\pmb{x};\pmb{\theta})$ ,并学习参数 $\theta$ 以获得对于函数 $y=f^*(\pmb{x})$ 的最佳近似。训练数据是含有噪声的 $f^* (\pmb{x})$ 的近似实例,每个 $\pmb{x}$ 的标签 $y \approx f^*(\pmb{x})$ 。只有输出层能够决定网络输出的 $y$ ,其他层被称之为隐藏...
5.1 Learning AlgorithmsLearn 的定义: Task( $T$ ) + Experince( $E$ ) + Performance( $P$ ) 。5.1.1 The Task, $T$分类:有函数 $f$ ,一般可以分为两种$f$ 将 $x\in \mathbb{R}^n$ 映射为一个表示种类的数 $y\in \{1,\dots,k\}$ 。$f$ 将 $x\i...