
标度律;比例法則;相似律;比例縮小規則
The flow in porous media is expressed in terms of scaling law.
在多孔介質中的流動問題可以用“标度”律表述。
We also discussed the Z-scaling law of these physical quantities.
還讨論了這些物理量隨原子序數變化的定标律。
Scaling law of structure function in GOY model is analyzed in this paper.
分析了GOY模型結構函數的标度律。
This deduction which has been proved by tests is very useful in explosion venting research (e. g. in scaling law research).
推論得到了試驗驗證,對于爆炸洩壓試驗研究(例如放大規律的研究)具有重大意義。
Thus the relations between the source parameters can be deduced from the scaling law, rather than pure statistical relations.
這樣就可以從定标律推導出震源參數之間的統計關系。
縮放定律(Scaling Law)是描述系統或模型在不同規模下性能變化規律的定量原則,廣泛應用于物理學、計算機科學和生物學等領域。在物理學中,它體現為系統宏觀特性與微觀參數之間的幂律關系,例如相變臨界現象中的标度行為。在凝聚态物理領域,諾貝爾獎得主K. G. Wilson通過重整化群理論揭示了标度律在連續相變中的普適性特征。
人工智能領域最著名的應用案例來自OpenAI的研究,其2020年發表的《Scaling Laws for Neural Language Models》證實:當模型參數、訓練數據和計算資源按指數關系增長時,語言模型的測試損失呈幂律下降。這一發現可用數學公式表達為: $$ L(N,D) = left( frac{N_c}{N} right)^{alpha_N} + left( frac{D_c}{D} right)^{alpha_D} $$ 其中$N$代表參數量,$D$為訓練數據量,$alpha$為經驗系數。DeepMind後續研究進一步驗證了該規律在1750億參數模型GPT-3中的適用性。
當前前沿研究聚焦于多模态系統的縮放規律,MIT計算機科學實驗室2023年研究發現,視覺-語言聯合模型的性能提升同樣遵循類似的幂律關系,但需要平衡模态間的規模擴展比例。這些實證研究為構建高效能人工智能系統提供了關鍵設計準則。
Scaling Law(擴展定律/比例定律)是一個跨學科術語,其核心描述了系統性能與規模變化之間的定量關系。以下是綜合多個領域(尤其是AI和大語言模型)的詳細解釋:
如需進一步了解技術細節,可參考OpenAI 2020年論文或高權威性來源如。
【别人正在浏覽】