在数学和统计学中, OLS是Ordinary Least Square的简称,即普通最小二乘法。它是一种数学优化技术,通过最小化误差的平方和来寻找数据的最佳函数匹配。普通最小二乘估计就是寻找参数β1, β2, …的估计值,使上式的离差平方和Q达极小。式中每个平方项的权数相同,是普通最小二乘回归参数估计方法。在误差项等方差、不相关的条件下,普通最小二乘估计是回归参数的最小方差的线性无偏估计。
OLS是计量经济学中最基本且应用最多的方法之一,用于估计计量模型中的参数。它也可以用于统计分析和数据挖掘中的回归分析,以预测一个因变量基于一个或多个自变量的值。
需要注意的是,OLS有一些基本假设,包括:
1. 模型是线性的。
2. 不存在多重共线性。
3. 自变量和误差项之间不相关。
4. 误差项同方差,并且误差项之间不相关。
5. 误差项服从正态分布。
这些假设条件确保了最小二乘法结果的存在性、一致性、有效性以及可检验性。在应用OLS时,必须确保这些假设得到满足,否则可能需要采用其他更复杂的统计方法。