
标度律;比例法则;相似律;比例缩小规则
The flow in porous media is expressed in terms of scaling law.
在多孔介质中的流动问题可以用“标度”律表述。
We also discussed the Z-scaling law of these physical quantities.
还讨论了这些物理量随原子序数变化的定标律。
Scaling law of structure function in GOY model is analyzed in this paper.
分析了GOY模型结构函数的标度律。
This deduction which has been proved by tests is very useful in explosion venting research (e. g. in scaling law research).
推论得到了试验验证,对于爆炸泄压试验研究(例如放大规律的研究)具有重大意义。
Thus the relations between the source parameters can be deduced from the scaling law, rather than pure statistical relations.
这样就可以从定标律推导出震源参数之间的统计关系。
缩放定律(Scaling Law)是描述系统或模型在不同规模下性能变化规律的定量原则,广泛应用于物理学、计算机科学和生物学等领域。在物理学中,它体现为系统宏观特性与微观参数之间的幂律关系,例如相变临界现象中的标度行为。在凝聚态物理领域,诺贝尔奖得主K. G. Wilson通过重整化群理论揭示了标度律在连续相变中的普适性特征。
人工智能领域最著名的应用案例来自OpenAI的研究,其2020年发表的《Scaling Laws for Neural Language Models》证实:当模型参数、训练数据和计算资源按指数关系增长时,语言模型的测试损失呈幂律下降。这一发现可用数学公式表达为: $$ L(N,D) = left( frac{N_c}{N} right)^{alpha_N} + left( frac{D_c}{D} right)^{alpha_D} $$ 其中$N$代表参数量,$D$为训练数据量,$alpha$为经验系数。DeepMind后续研究进一步验证了该规律在1750亿参数模型GPT-3中的适用性。
当前前沿研究聚焦于多模态系统的缩放规律,MIT计算机科学实验室2023年研究发现,视觉-语言联合模型的性能提升同样遵循类似的幂律关系,但需要平衡模态间的规模扩展比例。这些实证研究为构建高效能人工智能系统提供了关键设计准则。
Scaling Law(扩展定律/比例定律)是一个跨学科术语,其核心描述了系统性能与规模变化之间的定量关系。以下是综合多个领域(尤其是AI和大语言模型)的详细解释:
如需进一步了解技术细节,可参考OpenAI 2020年论文或高权威性来源如。
commandersolestrike upsonnetlustyarticulatesfoiemillionsmuffinoutlierpampassobererbig daddyboundary layercontinue to dodrug addictionHarvard Universityheat lossjump downpointer typereversing valvesoy milkfanwortforspentgiacobinidshetegonyHeterophyllidaeingurgitatemacrocephalymicromini