真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差(2.38)度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声(2.39)则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度.偏差一方差分解说明,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的.给定学习任务,为了取得好的泛化性能,则需使偏差较小,即能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小,一般来说,偏差与方差是有冲突的,这称为偏差一方差窘境(bias-variancedilemma).图2.9给出了一个示意图,给定学习任务,假定我们能控制学习算法很多学习算法都可控竺 的训练程度,则在训练不足时,学习器的拟合能力不够强,训练数据的扰动不足训练程度,例如决策树i控制层数,神经网络可控 以使学习器产生显著变化,此时偏差主导了泛化错误率;随着训练程度的加深,制训练轮数,集成学习方学习器的拟合能力逐渐增强,训练数据发生的扰动渐渐能被学习器学到,方差法可控制基学习器个数.逐渐主导了泛化错误率;在训练程度充足后,学习器的拟合能力已非常强,训练数据发生的轻微扰动都会导致学习器发生显著变化,若训练数据自身的、非全局的特性被学习器学到了,则将发生过拟合.