1. 深度学习很少使用经验风险最小化
  2. 机器学习不会等到代价函数达到极小值后再停止,而是会提前停止
  3. 机器学习的目标函数可以分解成训练样本上的求和,仅使用一部分样本来估计整体样本的期望。

用于深度模型训练的优化算法与传统的优化算法在几个方面有所不同。 机器学习通常是间接作用的。 在大多数机器学习问题中,我们关注某些性能度量PP,其定义于测试集上并且可能是不可解的。 因此,我们只是间接地优化PP。 我们希望通过降低一个不同的代价函数 J(θ)J(\theta)来提高PP。 这一点与纯优化不同,纯优化最小化目标JJ本身。 训练深度模型的优化算法通常也会包括一些针对机器学习目标函数的特定结构进行的特化。

通常,代价函数可写为训练集上的平均,如
J(θ)=E(x,y)p^dataL(f(x;θ),y)(8.1) \begin{aligned} J(\theta) = E_{(x, y) \sim\hat{p}_\text{data}} L(f(x ; \theta), y) && (8.1) \end{aligned}

[success]
假设某个network定义的function space是f(x;θ)f(x;\theta),这是一个以θ\theta为参数的关于x的函数。
有一组训练数据p^data\hat{p}_\text{data},其中的每个数据分别记作(xi,yi)(x^i,y^i)
再定义一个针对每个样本的损失函数l(f(xi;θ),yi)l(f(x^i;\theta),y^i)
得到总的代价函数为公式(8.1)。
由于公式中的x、y都来自训练数据,都是已知的,唯一的未知量是θ\theta,因此代价函数是一个关于θ\theta的函数。
要求的是θ\theta^*,满足θ=argminθL(θ)\theta^* = \arg\min_\theta L(\theta)

其中LL是每个样本的损失函数,f(x;θ)f(x;\theta)是输入xx时所预测的输出,p^data\hat{p}_{\text{data}}是经验分布。 监督学习中,yy是目标输出。

在本章中,我们会介绍不带正则化的监督学习,LL的变量是f(x;θ)f(x;\theta)yy。 不难将这种监督学习扩展成其他形式,如包括θ\theta或者xx作为参数,或是去掉参数yy,以发展不同形式的正则化或是无监督学习。

式(8.1)定义了训练集上的目标函数。 通常,我们更希望最小化取自\emph{数据生成分布}\,pdatap_{\text{data}}的期望,而不仅仅是有限训练集上的对应目标函数:
J(θ)=E(x,y)pdataL(f(x;θ),y) \begin{aligned} J^*(\theta) = \Bbb E_{(x, y) \sim p_\text{data}} L(f(x ;\theta),y) \end{aligned}

results matching ""

    No results matching ""