
英:/',reɡjʊləraɪ'zeɪʃən/
n. 规则化;调整;合法化
Its regularization method is given here.
文中给出了正则化求解方法。
Bayes' regularization raises the ability to extend of BP neural network.
贝叶斯正则化方法提高BP神经网络的泛化能力。
Thestability of the solution is improved by the Tiknonov's regularization method.
通过引入正则化方法来改善解的稳定性。
At the same time, the method to choose regularization parameter adaptively is given.
同时给出一种自适应确定正则化参数的方法。
And adjustment of land use structure is the basis of regularization of industry structure.
土地利用结构调整又是当前产业结构调整的基础。
n.|adjustment/restructuring/modulation/setup;[数]规则化;调整;合法化
正则化(Regularization)是机器学习中用于防止模型过拟合的核心技术,其核心思想是通过对模型复杂度施加约束,提升模型在未知数据上的泛化能力。根据《深度学习》中的定义,正则化通过修改学习算法,减少测试误差(泛化误差)而非训练误差。
在数学表达中,常见的L2正则化可表示为损失函数的修正形式: $$ J(theta) = frac{1}{2m} sum_{i=1}^m (htheta(x^{(i)}) - y^{(i)}) + frac{lambda}{2m} sum{j=1}^n theta_j $$ 其中$lambda$为正则化系数,用于平衡经验风险与结构风险。这种权重衰减机制最早由Tikhonov在1943年提出(参见《数学物理方法》)。
工程实践中,TensorFlow官方文档列举了三种主要实现形式:
斯坦福大学CS229课程材料指出,正则化参数$lambda$的选取需通过交叉验证确定,典型取值范围在$10^{-6}$到$10^{3}$之间。在深度学习中,Dropout作为特殊正则化技术,通过随机失活神经元实现模型平均化,该技术由Hinton团队在2012年ImageNet竞赛中首次成功应用。
Regularization(正则化)是机器学习和统计学中的一种技术,用于防止模型过拟合(overfitting),即模型在训练数据上表现优异但在新数据上泛化能力差的问题。其核心思想是通过对模型施加额外约束或惩罚项,限制模型的复杂度,从而提升泛化性能。
控制模型复杂度
通过在损失函数中添加与模型参数相关的惩罚项(如权重向量的L1/L2范数),迫使模型参数趋向更小的值,减少对噪声数据的敏感度。例如:
平衡偏差-方差
正则化通过增加模型偏差(轻微降低训练精度)来显著减少方差(提高测试精度),缓解过拟合。
处理多重共线性
在回归任务中,正则化可减少特征间高度相关性带来的参数估计不稳定性。
原始损失函数:
$$ J(theta) = frac{1}{2m} sum_{i=1}^m (htheta(x^{(i)}) - y^{(i)}) $$
加入L2正则化后:
$$ J(theta) = frac{1}{2m} sum{i=1}^m (htheta(x^{(i)}) - y^{(i)}) + lambda sum{j=1}^n theta_j $$
其中,$lambda$ 是正则化强度超参数,用于调节惩罚项的权重。
简而言之,正则化通过“以退为进”的策略,使模型在复杂度和泛化能力之间达到平衡,成为现代机器学习中的核心工具之一。
【别人正在浏览】