对神经网络来说,代价函数是很重要的。
神经网络的代价函数和其它模型的代价函数类似。
深度神经网络设计中的一个重要方面是代价函数的选择。 幸运的是,神经网络的代价函数或多或少是和其他的参数模型例如线性模型的代价函数相同的。
在大多数情况下, 我们的参数模型定义了一个分布并且我们简单地使用最大似然原理。 这意味着我们使用训练数据和模型预测间的交叉熵作为代价函数。
[success]
训练数据的真实结果本身是一个分布,称为经验分布。
对训练数据的预测结果是另一个分布,称为模型分布。
基本代价函数可以看作是经验分布和模型分布之间的比较。
经常使用数据分布与模型分布的交叉熵作为代价函数。
因此,模型分布的输出层决定了交叉熵的形式,也决定了代价函数的形式。
有时,我们使用一个更简单的方法,不是预测的完整概率分布,而是仅仅预测在给定的条件下的某种统计量。 某些专门的损失函数允许我们来训练这些估计量的预测器。
[success]
两个分布的比较,可以是两种分布的直接比例,例如和
也可以是两个分布基于某种统计量的比较,例如和
用于训练神经网络的完整的代价函数,通常在我们这里描述的基本代价函数的基础上结合一个正则项。 我们已经在\sec?中看到正则化应用到线性模型中的一些简单的例子。 用于线性模型的权重衰减方法也直接适用于深度神经网络,而且是最流行的正则化策略之一。
[info]
权重衰减
用于神经网络的更高级的正则化策略将在第7章中讨论。
[success]
完整的代价函数是指在基本代价函数的基础上结合一个正则项。
这里不涉及正则化,只介绍基本的代价函数。
5.2.2 正则化的简单例子
第7章 更高级的正则化策略