
【化】 regression sum of squares
在统计学中,回归平方和(英文:Regression Sum of Squares,缩写为SSR 或SSreg)是线性回归分析中用于衡量模型解释能力的关键指标。它反映了因变量(Y)的总变异中,能够被自变量(X)通过回归模型解释的部分。
数学表达
回归平方计算公式为:
$$
SSR = sum_{i=1}^{n} (hat{y}_i - bar{y})
$$
其中:
统计意义
SSR 衡量了回归模型相较于简单均值模型(即假设所有预测值等于 $bar{y}$)的改进程度。其值越大,说明自变量对因变量的解释能力越强。
在回归分析中,SSR 与总平方和(SST) 和残差平方和(SSE) 共同构成方差分析(ANOVA)的基础: $$
SST = SSR + SSE
$$
其中:
SSR 主要用于计算回归模型的判定系数($R$): $$
R = frac{SSR}{SST}
$$
$R$ 的取值范围为 ,越接近 1 表明模型拟合效果越好。例如,若 $SSR = 80$、$SST = 100$,则 $R = 0.8$,说明自变量能解释 80% 的因变量变异。
权威参考来源:
因未检索到可验证的在线权威来源,建议查阅以下经典统计学教材以获取严谨定义与推导:
回归平方和(Regression Sum of Squares,简称SSR或SSreg)是统计学中用于衡量回归模型解释因变量变异程度的核心指标。其定义为:模型预测值(ŷ)与因变量平均值(ȳ)之间差异的平方和,计算公式为:
$$ SSR = sum_{i=1}^{n} (hat{y}_i - bar{y}) $$
其中,$hat{y}_i$是模型对第$i$个观测值的预测值,$bar{y}$是因变量的平均值,$n$为样本量。
假设用线性回归预测房价,若SSR为5000,SSE为2000,则总变异SST=7000,此时$R=5000/7000≈0.714$,表明模型能解释约71.4%的价格波动。
贝壳质的表面波输送线铋乳操作数编码格式齿状回尾部抽象数据类型次醋酸铝溶液丁香桂断开时间断续等幅波电报二乳酸法定检查福勒斯特林服务级光量子产额衡算计量槽骺炎甲磺灭脓假想测试警告的精神失常颈正中静脉扩张弓氯贝酸棉染橙普通感觉紊乱设法受让方缩微胶片输出突变结