R语言用局部加权回归(Lowess)对logistic逻辑回归诊断和残差分析
原文链接:http://tecdat.cn/?p=22328
目前,回归诊断不仅用于一般线性模型的诊断,还被逐步推广应用于广义线性模型领域(如用于logistic回归模型),但由于一般线性模型与广义线性模型在残差分布的假定等方面有所不同,所以推广和应用还存在许多问题。鉴于此,本文使用图表考察logistic模型的拟合优度。
如何处理从逻辑回归中得到的残差图?为了更好地理解,让我们考虑以下数据集
glm(Y~X1+X2,family=binomial)
如果我们使用R的诊断图,第一个是残差的散点图,对照预测值。
> plot(reg,which=1)
也可以
> plot(predict(reg),residuals(reg))
> abline(h=0,lty=2 )
为什么我们会有这两条线的点?因为我们预测了一个变量取值为0或1的概率。当我们使用彩色时,可以更清楚地看到,如果真值是0,那么我们总是预测得更多,残差必须是负的(蓝点),如果真值是1,那么我们就低估了,残差必须是正的(红点)。当然,还有一个单调的关系
> plot(predict(reg),residuals(reg) )
点正好在一条平滑的曲线上,是预测值的一个函数。
现在,从这个图上看不出什么。我们运行一个局部加权回归,看看发生了什么。
lowess(predict(reg),residuals(reg)
这是我们在第一个诊断函数中所得到的。但在这个局部回归中,我们没有得到置信区间。我们可以假设图中水平线非常接近虚线吗?
segments( fit+2* se.fit, fit-2* se.fit )
可以。这个图表表明什么?
事实上,该图可能不是观察残差的唯一方法。如果不把它们与两个解释变量绘制在一起呢?例如,如果我们将残差与第二个解释变量作对比,我们会得到
> lines(lowess(X2,residuals(reg))
对照一下,该图与我们之前的图相似。
如果我们现在看一下与第一个解释变量的关系:
> lines(lowess(X1,residuals(reg))
因为我们可以清楚地识别出二次方的影响。这张图表明,我们应该对第一个变量的平方进行回归。而且可以看出它是一个重要的影响因素。
现在,如果我们运行一个包括这个二次方效应的回归,我们会得到什么。
glm(Y~X1+I(X1^2)+X2,family=binomial)
看起来和第一个逻辑回归模型结果类似。那么本文的观点是什么?观点是
图形可以用来观察可能出错的地方,对可能的非线性转换有更多的直觉判断。
图形不是万能的,从理论上讲,残差线应该是一条水平的直线。但我们也希望模型尽可能的简单。所以,在某个阶段,我们也许应该依靠统计检验和置信区间。