Please enable JavaScript to view this site.

Navigation: 回归原理 > 简单逻辑回归的原理

简单逻辑回归的工作原理

Scroll Prev Top Next More

请记住,在线性回归中,预测方程旨在使残差平方和最小(即选择一条通过数据点的直线,使得该直线与所有数据点之间垂直距离的平方和最小)。而在逻辑回归中,所有观测值都被编码为 0(失败)或 1(成功)。 与简单线性回归类似,简单逻辑回归也只有一个自变量(X)。逻辑回归的目标是预测观测到 0 或 1 的概率,如果仅仅通过最小化数据点到直线的平方距离之和来拟合一条直线,将会导致一个毫无意义的模型(详见前一节“简单逻辑回归与简单线性回归的区别”)。

那么模型究竟如何拟合?该模型通过最大化统计学家所称的“似然函数”来实现。通俗而言,最大化似然的过程可理解为选择最有可能生成观测数据的模型系数估计值。因此需要注意的是,逻辑回归模型在拟合(或分类)输入数据方面的表现通常优于对新数据结果的准确预测。

关于逻辑回归的另一个关键点是:与线性回归不同,逻辑回归的似然最大化需要迭代求解器,这意味着它会选取一些初始值,并朝着最大似然值“攀登”以确定最大值。这也意味着 - 与线性回归不同,但与非线性回归相似 - 在某些情况下,针对给定数据集无法确定简单的逻辑回归模型。 用“统计学术语”来说,我们会说最大似然估计无法确定,或者简单地说模型未收敛。

简单逻辑回归模型无法收敛通常有几个常见原因,这些内容将在专门讨论每种情况的页面中进行说明。