Please enable JavaScript to view this site.

模型比较的方法与多元线性回归类似。

选择第二个模型

在多元逻辑回归对话框的“比较”选项卡中,首先为第二个模型指定主效应、交互作用和变换。在许多情况下,第二个模型将嵌套在第一个模型中(即它将使用第一个模型中效应、交互作用和变换的子集)。如果是这种情况,第二个模型将是一个“简单模型”。

选择比较方法

对于逻辑回归,Prism 提供了两种模型比较方法:赤池准则 (AICc) 和似然比检验 (LRT)。

赤池信息准则(AICc)

AICc 是一种基于信息论的方法,采用修正版的赤池准则。该方法通过考虑每个模型的偏差,来判断数据对各模型的支持程度。在多元逻辑回归对话框的“拟合优度”选项卡中,还可选择报告所选模型的偏差。结果以各模型正确的概率形式呈现,各概率之和为 100%。 显然,该方法并未考虑其他模型可能正确的可能性,它仅比较被要求比较的两个模型。如果一个模型比另一个模型正确的可能性高得多(例如 1% 对比 99%),您应选择该模型。 然而,如果差异不大(例如 40% 与 60%),您无法确定哪个模型更好,此时应收集更多数据。了解更多关于这些计算原理的信息。重要的是,AICc 可用于比较同一数据集上的任意两个模型。

该检验报告了所选模型计算出的 AICc 值之间的差异。关于逻辑回归中 AICc 的计算方法,更多信息请参见此处

似然比检验 (LRT)

与 AICc 类似,LRT 同样利用模型偏差来确定优选模型。但与 AICc 不同的是,LRT 仅适用于其中一个模型是另一个模型的简化版本的情况。 另一种描述这种情况的方式是说这两个模型是“嵌套”的。尽管该检验仅在模型嵌套时才有效,但 Prism 不会检查模型是否嵌套。因此,在选择使用此检验比较两个模型时,您必须格外谨慎。

检验统计量计算为简单模型(参数较少的模型)与复杂模型(参数较多的模型)的模型偏差之差:

LRT 统计量 = 简单模型的偏差 - 复杂模型的偏差

向模型中添加参数(几乎)总是会降低模型偏差。因此,检验统计量反映了较复杂模型的偏差值降低了多少。该统计量的数值用于计算 P 值。较小的 P 值表明应拒绝“简单模型是正确的”这一零假设。在 Prism 中,您可以指定 P 值必须小于多少才能拒绝该零假设(默认值为 0.05)。