在许多情况下,神经网络在独立同分布的测试集上进行评估已经达到了人类表现。 因此,我们自然要怀疑这些模型在这些任务上是否获得了真正的人类层次的理解。 为了探索网络对底层任务的理解层次,我们可以探索这个模型错误分类的例子。 \cite{Szegedy-ICLR2014}发现,在精度达到人类水平的神经网络上通过优化过程故意构造数据点,其上的误差率接近\NUMTEXT{100\%},模型在这个输入点xx'的输出与附近的数据点xx非常不同。 在许多情况下,xx'xx非常近似,人类观察者不会察觉原始样本(adversarial example)和对抗样本之间的差异,但是网络会作出非常不同的预测。 见\figref{fig:chap7_panda_577}中的例子。

Click to show
{% raw %}
\begin{figure}[!htb]
\ifOpenSource
\centerline{\includegraphics{figure.pdf}}
\else
\centering
\begin{tabular}{>{\centering\arraybackslash}m{.2\figwidth}m{.5in}>{\centering\arraybackslash}m{.2\figwidth}m{.1in}>{\centering\arraybackslash}m{.2\figwidth}}
    \centering\arraybackslash
%abs max for panda was 138, eps was 1., so relative eps is approximately .007
    \includegraphics[width=.2 \figwidth]{Chapter7/figures/panda_577.png} &%
    \centering\arraybackslash%
{% math_inline %}\ +\ .007\ \times{% endmath_inline %} &%
    \includegraphics[width=.2\figwidth]{Chapter7/figures/nematode_082.png} &%
    {% math_inline %}={% endmath_inline %} & %
    \includegraphics[width=.2\figwidth]{Chapter7/figures/gibbon_993.png} \\
    {% math_inline %}\centering x{% endmath_inline %}     &%
    & {% math_inline %}\text{sign} (\nabla_{x} J(\theta, x, y) ){% endmath_inline %} & & {% math_inline %}x + \epsilon \text{sign} (\nabla_{x} J(\theta, x, y) ){% endmath_inline %} \\
    {% math_inline %}y={% endmath_inline %}``panda'' &                & ``nematode''     &   & ``gibbon'' \\
    w/ 57.7\% confidence &        &   w/ 8.2\% confidence & & w/ 99.3 \% confidence
\end{tabular}    
\fi
\caption[Fast adversarial sample generation]{
在ImageNet上应用GoogLeNet\citep{Szegedy-et-al-arxiv2014}的对抗样本生成的演示。
通过添加一个不可察觉的小向量(其中元素等于代价函数相对于输入的梯度元素的符号),我们可以改变GoogLeNet对此图像的分类结果。
经\citet{Goodfellow-2015-adversarial}许可转载。
}
\label{fig:chap7_panda_577}
\end{figure}
{% endraw %}

对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。 然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络\citep{Szegedy-ICLR2014,Goodfellow-2015-adversarial}。

\cite{Goodfellow-2015-adversarial}表明,这些对抗样本的主要原因之一是过度线性。 神经网络主要是基于线性块构建的。 因此在一些实验中,它们实现的整体函数被证明是高度线性的。 这些线性函数很容易优化。 不幸的是,如果一个线性函数具有许多输入,那么它的值可以非常迅速地改变。 如果我们用ϵ\epsilon改变每个输入,那么权重为ww的线性函数可以改变ϵw1\epsilon ||w||_1之多,如果ww是高维的这会是一个非常大的数。 对抗训练通过鼓励网络在训练数据附近的局部区域恒定来限制这一高度敏感的局部线性行为。 这可以被看作是一种明确地向监督神经网络引入局部恒定先验的方法。

对抗训练有助于体现积极正则化与大型函数族结合的力量。

[warning] 什么是对抗训练? 后面看不懂?

纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。 神经网络能够表示范围广泛的函数,从接近线性到局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。

对抗样本也提供了一种实现半监督学习的方法。 在数据集中没有分配标签的点xx处,模型自己为其分配一些标签y^\hat y。 模型的标记y^\hat y未必是真正的标签,但如果模型是高品质的,那么y^\hat y提供正确标签的可能性很大。 我们可以搜索一个对抗样本 xx',导致分类器输出一个标签yy'yy^y' \neq \hat y。 不使用真正的标签,而是由训练好的模型提供标签产生的对抗样本被称为虚拟对抗样本\citep{miyato2015distributional}。 我们可以训练分类器为xxxx'分配相同的标签。 这鼓励分类器学习一个沿着未标签数据所在流形上任意微小变化都很鲁棒的函数。 驱动这种方法的假设是,不同的类通常位于分离的流形上,并且小扰动不会使数据点从一个类的流形跳到另一个类的流形上。

results matching ""

    No results matching ""