【回归平方和】在统计学中,回归平方和(Sum of Squares due to Regression,简称SSR)是一个重要的概念,用于衡量回归模型对因变量(响应变量)的解释能力。它表示的是通过回归模型所解释的总变异部分,是评估模型拟合优度的重要指标之一。
一、什么是回归平方和?
回归平方和(SSR)是回归模型预测值与因变量均值之间的差的平方和。其计算公式如下:
$$
SSR = \sum ( \hat{y}_i - \bar{y} )^2
$$
其中:
- $\hat{y}_i$ 是第 $i$ 个观测值的预测值;
- $\bar{y}$ 是因变量的样本均值。
SSR 越大,说明模型对数据的解释能力越强,即回归模型能更好地捕捉到因变量的变化趋势。
二、回归平方和与其他平方和的关系
在回归分析中,通常会将总平方和(SST)分解为回归平方和(SSR)和残差平方和(SSE),即:
$$
SST = SSR + SSE
$$
其中:
- 总平方和(SST):表示因变量的总变异,计算公式为 $\sum (y_i - \bar{y})^2$;
- 残差平方和(SSE):表示模型未能解释的变异,计算公式为 $\sum (y_i - \hat{y}_i)^2$。
通过比较这些平方和的大小,可以判断模型的拟合效果。
三、回归平方和的意义
1. 衡量模型的解释能力
SSR 越大,说明模型对因变量的解释力越强。
2. 用于计算决定系数(R²)
决定系数 $R^2$ 的计算公式为:
$$
R^2 = \frac{SSR}{SST}
$$
$R^2$ 的取值范围在0到1之间,数值越大,说明模型的拟合效果越好。
3. 评估模型的合理性
如果 SSR 远小于 SST,则说明模型对数据的解释能力较弱,可能需要重新选择变量或调整模型结构。
四、表格总结
| 概念 | 定义 | 公式 | 作用 |
| 回归平方和(SSR) | 回归模型解释的变异部分 | $\sum (\hat{y}_i - \bar{y})^2$ | 衡量模型对因变量的解释能力 |
| 总平方和(SST) | 因变量的总变异 | $\sum (y_i - \bar{y})^2$ | 表示数据的总体波动 |
| 残差平方和(SSE) | 模型未解释的变异部分 | $\sum (y_i - \hat{y}_i)^2$ | 反映模型的误差程度 |
| 决定系数(R²) | 模型解释的变异比例 | $R^2 = \frac{SSR}{SST}$ | 评估模型的拟合优度 |
五、小结
回归平方和(SSR)是回归分析中的核心指标之一,它反映了模型对数据变化的解释能力。通过对比 SSR 与 SST 的关系,可以更直观地理解模型的拟合效果。在实际应用中,结合其他统计量如 R² 和 SSE,可以更全面地评估模型的表现。
以上就是【回归平方和】相关内容,希望对您有所帮助。


