
【計】 cross validation
交叉驗證(Cross-Validation)是機器學習領域中評估模型泛化能力的核心方法。該術語在漢英詞典中對應"Cross-Validation",其定義可追溯至統計學奠基人Stone和Geisser的獨立研究。該技術通過系統化的數據分割策略,實現模型性能的客觀評估。
根據Hastie等學者在《統計學習基礎》中的經典論述,交叉驗證包含三個關鍵步驟:
常用方法包括:
該方法有效緩解了傳統訓練集-測試集分割的抽樣偏差問題,被IEEE标準委員會列為推薦驗證流程。在醫學影像分析、金融風險評估等數據稀缺領域,交叉驗證已成為模型驗證的金标準。其數學表達式可表示為:
$$ CV{(k)} = frac{1}{k}sum{i=1}^{k} frac{N}{n} sum_{j=1}^{n} L(y_j,hat{f}^{-κ(i)}(x_j)) $$
其中$L$表示損失函數,$hat{f}^{-κ(i)}$表示第i次疊代的模型。該公式被收錄于《Pattern Recognition and Machine Learning》教材附錄。
交叉驗證(Cross-Validation)是機器學習中用于評估模型泛化能力的一種統計方法,其核心思想是通過重複劃分數據集來減少訓練和測試過程中的隨機性偏差,尤其適用于數據量較少的情況。
K折交叉驗證(K-Fold)
将數據均勻分為K個子集(通常K=5或10),每次用K-1個子集訓練,剩餘1個驗證,共進行K次循環。最終取平均結果,平衡計算成本與穩定性。
留一法(Leave-One-Out, LOO)
極端情況下的K折交叉驗證(K等于樣本數),每個樣本單獨作為驗證集。優點是無偏,但計算量極大,僅適用于極小數據集。
分層交叉驗證(Stratified K-Fold)
在分類問題中保持每折的類别分布與原始數據一緻,避免因數據劃分不均導緻評估偏差。
時間序列交叉驗證
針對時序數據,按時間順序劃分訓練集和驗證集,防止未來信息洩露到訓練中。
例如,使用10折交叉驗證時,模型會被訓練和驗證10次,最終取10次結果的平均值作為性能指标。這種方法比單次隨機劃分訓練/測試集更能反映模型的實際泛化能力。
報保險費率北美黃連次鹼不適定性問題不完全脫氧鋼朝岸催化劑活性集團理論頂澆進模口豆石複式運費帳單關稅政策貴公子恒定流量泵交流充電特性加燃料盧丁麻口區匹魯卡品缺頁故障渠溝塞比洛氏凹三氧化二钇舌濾泡陷凹石油産品的酸度師長首席檢察官鼠傷寒沙門氏菌搪瓷鐵器