有序logistic回归方程到底有什么区别

关注今日:26 | 主题:198235
微信扫一扫
多因素二元logistic回归分析中的方法有进入、向前、向后,各种方法到底有什么区别?
页码直达:
请教各位大侠:多因素二元logistic回归分析中的方法有进入、向前、向后,各种方法到底有什么区别?哪种情况选哪种?
不知道邀请谁?试试他们
微信扫一扫
广告宣传推广
政治敏感、违法虚假信息
恶意灌水、重复发帖
违规侵权、站友争执
附件异常、链接失效
同样的数据选进入和向前(LR)法得出结果不一样,求答怎么解释?
微信扫一扫
广告宣传推广
政治敏感、违法虚假信息
恶意灌水、重复发帖
违规侵权、站友争执
附件异常、链接失效
这个真不会,自学没到家。
微信扫一扫
广告宣传推广
政治敏感、违法虚假信息
恶意灌水、重复发帖
违规侵权、站友争执
附件异常、链接失效
微信扫一扫
广告宣传推广
政治敏感、违法虚假信息
恶意灌水、重复发帖
违规侵权、站友争执
附件异常、链接失效
关于丁香园510被浏览71385分享邀请回答cs.waikato.ac.nz/~eibe/pubs/nbr.pdf 前馈神经网络(如 CNN 系列) 用于 分类 和 回归:用于回归:最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做向量 v,现全部连到一个神经元上,则这个神经元输出 wv+b,是一个连续值,可以处理回归问题,跟上面 Linear Regression 思想一样用于N分类:现在这m个神经元最后连接到 N 个神经元,就有 N 组w值不同的 wv+b,同理可以归一化(比如用 softmax )变成 N个类上的概率(补充一下,如果不用 softmax,而是每个 wx+b 用一个 sigmoid,就变成多标签问题,跟多分类的区别在于,样本可以被打上多个标签)循环神经网络(如 RNN 系列) 用于分类 和 回归:用于回归 和 分类: 跟 CNN 类似,输出层的值 y = wv+b,可做分类可做回归,只不过区别在于,RNN 的输出跟时间有关,即输出的是 {y(t), y(t+1),...}序列(关于时间序列,见下面的更新)上面的例子其实都是从 prediction 的角度举例的,如果从 training 角度来看,分类模型和回归模型的目标函数不同,分类常见的是 log loss, hinge loss, 而回归是 square loss(关于 loss function,又是另一个story了,在此不展开了)==== 进一步思考后的重要更新,谈谈时间序列模型 ========上面的例子 1~4 解决的是常见的分类/回归问题,而例5 解决的是 时间序列问题。上面例1~4 的模型只适用于:这些样本的 y,没有时间上的相关性,比如:人脸识别(分类问题),输入 x 是人脸的图像矩阵,识别目标 y 是人的ID,离散值,显然人与人的ID没有时间上的关系人脸年龄预测(回归问题),输入 x 还是人脸图像矩阵,识别目标 y 是人的年龄,连续值,显然人与人之间的年龄亦没有时间上的关系而当这些样本的 y 在时间上有相关性时,就变成了 时间序列问题,如果我们依然用非时间序列的方法来处理,就割裂了y的时间相关性,所以常见手段是用例5提到的RNN,(当然,还有 HMM, CRF 这些)但注意别用统计学里面那些愚蠢的 AR 模型(参考我的回答 )。应用场景:NLP 里的命名体识别(分类问题),输入是一句话,可以看做是由单词组成的时间序列(准确说是: 事件序列),输出是每个单词所属的标签气温预测(回归问题),输入是历史时间的气温记录,输出是未来1天或多天的气温总结一下,我认为,机器学习模型(有监督)本质是:对一系列样本
的映射所以,对于时间序列问题,其实是构建一个
的映射关系17411 条评论分享收藏感谢收起22516 条评论分享收藏感谢收起当前位置: &
9,399 次阅读 -
在有监督学习算法用做分类问题时,有两种算法在实际中应用广泛,它们分别是Logistic regression和Naive bayes。今天我们讨论一下这两类算法在分类问题上面的异同点,以及它们的优缺点。
1.两类算法介绍
Logistic Regression
Naive Bayes
Naive Bayes模型是说我有一个很强的假设,这个假设是在y给定的条件下,xi相互独立,这个假设看上去非常stupid,但是在实际应用(比如垃圾邮件检测)中能够work非常好。这一方面也验证了Occam’s Theory: Simple model is better。继续主题,既然xi相互独立,我们想对测试数据x^进行预测,可以通过如下方法:
在这里,可以通过条件独立性写成:
而分母可以通过联合概率写成:
好的,下面我们开始分析Logistic Regression和Naive Bayes的异同点。
2.两者的异同点
Logistic regression和Naive bayes都是对特征的线性表达,只是区别在于两者所fit的参数不同。
Logistic regression和Naive bayes建模的都是条件概率,对所最终求得的不同类的结果有很好的解释性。而不像SVM,神经网络这样解释性不高。
Logistic regression在有相关性feature上面学习得到的模型在测试数据的performance更好。也就是说,logistic regression在训练时,不管特征之间有没有相关性,它都能找到最优的参数。而在Naive bayes中,由于我们给定特征直接相互独立的严格设定,在有相关性的feature上面学习到的权重同时变大或变小,它们之间的权重不会相互影响。从这方面来说,如果能够在对参数较好地控制,在损失项方面处理的很好的话,Logistic regression相对Naive bayes在应用时更不会限制在特征工程(feature engineering)上面。
Naive bayes的好处是我没有优化参数这一步,通过训练数据我直接得到一个counting table,这些有助于并行化。
Andrew Ng和Michael Jordan在2001年发了一篇NIPS短文《》,他们把这两个模型用在各种数据集上面进行测试,最后得到在小数据上面Naive bayes可以取得更好的效果,随着数据的增多、特征维度的增大,Logistic regression的效果更好。这也是因为Naive bayes是生成模型,在有prior的情况下模型能够把数据fit的更好,而Logistic regression属于生成模型,目标驱动化,不去建模联合概率,通过训练数据直接预测输出,因此在数据足够多的情况下能够得到更好一些的效果。
文章出处:
注:转载文章均来自于公开网络,仅供学习使用,不会用于任何商业用途,如果侵犯到原作者的权益,请您与我们联系删除或者授权事宜,联系邮箱:contact@dataunion.org。转载数盟网站文章请注明原文章作者,否则产生的任何版权纠纷与数盟无关。
相关文章!
不用想啦,马上 发表自已的想法.
做最棒的数据科学社区
扫描二维码,加微信公众号
联系我们:机器学习(4)
逻辑回归是应用非常广泛的一个分类机器学习算法,它将数据拟合到一个logit函数(或者叫做logistic函数)中,从而能够完成对事件发生的概率进行预测。
&&&&要说逻辑回归,我们得追溯到线性回归,想必大家对线性回归都有一定的了解,即对于多维空间中存在的样本点,我们用特征的线性组合去拟合空间中点的分布和轨迹。如下图所示:
&&&&线性回归能对连续值结果进行预测,而现实生活中常见的另外一类问题是,分类问题。最简单的情况是是与否的二分类问题。比如说医生需要判断病人是否生病,银行要判断一个人的信用程度是否达到可以给他发信用卡的程度,邮件收件箱要自动对邮件分类为正常邮件和垃圾邮件等等。
&&&&当然,我们最直接的想法是,既然能够用线性回归预测出连续值结果,那根据结果设定一个阈值是不是就可以解决这个问题了呢?事实是,对于很标准的情况,确实可以的,这里我们套用Andrew Ng老师的课件中的例子,下图中X为数据点肿瘤的大小,Y为观测结果是否是恶性肿瘤。通过构建线性回归模型,如hθ(x)所示,构建线性回归模型后,我们设定一个阈&#,预测hθ(x)≥0.5的这些点为恶性肿瘤,而hθ(x)&0.5为良性肿瘤。
&&&&但很多实际的情况下,我们需要学习的分类数据并没有这么精准,比如说上述例子中突然有一个不按套路出牌的数据点出现,如下图所示:
&&&&你看,现在你再设定0.5,这个判定阈值就失效了,而现实生活的分类问题的数据,会比例子中这个更为复杂,而这个时候我们借助于线性回归+阈值的方式,已经很难完成一个鲁棒性很好的分类器了。
&&&&在这样的场景下,逻辑回归就诞生了。它的核心思想是,如果线性回归的结果输出是一个连续值,而值的范围是无法限定的,那我们有没有办法把这个结果值映射为可以帮助我们判断的结果呢。而如果输出结果是 (0,1) 的一个概率值,这个问题就很清楚了。我们在数学上找了一圈,还真就找着这样一个简单的函数了,就是很神奇的sigmoid函数(如下):
&&&&如果把sigmoid函数图像画出来,是如下的样子:
Sigmoid Logistic Function
&&&&从函数图上可以看出,函数y=g(z)在z=0的时候取值为1/2,而随着z逐渐变小,函数值趋于0,z逐渐变大的同时函数值逐渐趋于1,而这正是一个概率的范围。
&&&&所以我们定义线性回归的预测函数为Y=WTX,那么逻辑回归的输出Y=&g(WTX),其中y=g(z)函数正是上述sigmoid函数(或者简单叫做S形函数)。
3、判定边界
&&&&我们现在再来看看,为什么逻辑回归能够解决分类问题。这里引入一个概念,叫做判定边界,可以理解为是用以对不同类别的数据分割的边界,边界的两旁应该是不同类别的数据。
&&&&从二维直角坐标系中,举几个例子,大概是如下这个样子:
&&&&有时候是这个样子:
&&&&甚至可能是这个样子:
&&&&上述三幅图中的红绿样本点为不同类别的样本,而我们划出的线,不管是直线、圆或者是曲线,都能比较好地将图中的两类样本分割开来。这就是我们的判定边界,下面我们来看看,逻辑回归是如何根据样本点获得这些判定边界的。
&&&&我们依旧借用Andrew Ng教授的课程中部分例子来讲述这个问题。
&&&&回到sigmoid函数,我们发现: &
&&&&&&&&当g(z)≥0.5时,&z≥0;
&&&&&&&&对于hθ(x)=g(θTX)≥0.5,
则θTX≥0,
此时意味着预估y=1;
&&&&&&&&反之,当预测y = 0时,θTX&0;
&&&&所以我们认为θTX
=0是一个决策边界,当它大于0或小于0时,逻辑回归模型分别预测不同的分类结果。
&&&&先看第一个例子hθ(x)=g(θ0+θ1X1+θ2X2),其中θ0
,θ1 ,θ2分别取-3,
1, 1。则当-3+X1+X2≥0时,
y = 1; 则X1+X2=3是一个决策边界,图形表示如下,刚好把图上的两类点区分开来:
&&&&例1只是一个线性的决策边界,当hθ(x)更复杂的时候,我们可以得到非线性的决策边界,例如:
&&&&这时当x12+x22≥1时,我们判定y=1,这时的决策边界是一个圆形,如下图所示:
&&&&所以我们发现,理论上说,只要我们的hθ(x)设计足够合理,准确的说是g(θTx)中θTx足够复杂,我们能在不同的情形下,拟合出不同的判定边界,从而把不同的样本点分隔开来。
4、代价函数与梯度下降
&&&&我们通过对判定边界的说明,知道会有合适的参数θ使得θTx=0成为很好的分类判定边界,那么问题就来了,我们如何判定我们的参数θ是否合适,有多合适呢?更进一步,我们有没有办法去求得这样的合适参数θ呢?
&&&&这就是我们要提到的代价函数与梯度下降了。
&&&&所谓的代价函数Cost Function,其实是一种衡量我们在这组参数下预估的结果和实际结果差距的函数,比如说线性回归的代价函数定义为:
当然我们可以和线性回归类比得到一个代价函数,实际就是上述公式中hθ(x)取为逻辑回归中的g(θTx),但是这会引发代价函数为“非凸”函数的问题,简单一点说就是这个函数有很多个局部最低点,如下图所示:
而我们希望我们的代价函数是一个如下图所示,碗状结构的凸函数,这样我们算法求解到局部最低点,就一定是全局最小值点。
& & & 因此,上述的Cost Function对于逻辑回归是不可行的,我们需要其他形式的Cost Function来保证逻辑回归的成本函数是凸函数。
& & & 我们跳过大量的数学推导,直接出结论了,我们找到了一个适合逻辑回归的代价函数:
& & & Andrew Ng老师解释了一下这个代价函数的合理性,我们首先看当y=1的情况:
& & & &如果我们的类别y = 1, 而判定的hθ(x)=1,则Cost
= 0,此时预测的值和真实的值完全相等,代价本该为0;而如果判断hθ(x)→0,代价-&∞,这很好地惩罚了最后的结果。
& & & &而对于y=0的情况,如下图所示,也同样合理:
& & & &下面我们说说梯度下降,梯度下降算法是调整参数θ使得代价函数J(θ)取得最小值的最基本方法之一。从直观上理解,就是我们在碗状结构的凸函数上取一个初始值,然后挪动这个值一步步靠近最低点的过程,如下图所示:
& & & 我们先简化一下逻辑回归的代价函数:
& & & &从数学上理解,我们为了找到最小值点,就应该朝着下降速度最快的方向(导函数/偏导方向)迈进,每次迈进一小步,再看看此时的下降最快方向是哪,再朝着这个方向迈进,直至最低点。
& & & &用迭代公式表示出来的最小化J(θ)的梯度下降算法如下:
注意:逻辑回归当中的决策边界的计算并不是一个回归过程,它只是相当于一个分类器,把类别分开,他是通过极大似然估计通过梯度下降来计算的,而且回归是连续的,而分类是离散的,回归与分类的区别点击:
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:1744次
排名:千里之外
转载:23篇
(12)(18)(2)
(window.slotbydup = window.slotbydup || []).push({
id: '4740887',
container: s,
size: '250,250',
display: 'inlay-fix'帐号:密码:下次自动登录{url:/nForum/slist.json?uid=guest&root=list-section}{url:/nForum/nlist.json?uid=guest&root=list-section}
贴数:25&分页:we mean business发信人: smu (we mean business), 信区: CorpFin
标&&题: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Wed Apr 28 18:30:48 2004), 站内 && 看到前面几个有关Logit回归的问题,给大家做点贡献吧。 && 1,对于(0,1)的情况,SAS里面默认0在先。要么你编码的时候讲事件编为0,要么在回归的时候加上Descending的选项。
2,结果一般用两张表。第一张就像一般的OLS回归,汇报系数的大小和符号(是的,Logit系数大小没有意义,符号表示影响的方向),系数是否为0的统计值,样本量(这个很重要,我看所有的文章里都有),最后就是模型的Fit。
3,系数是否为零的检验,可以直接汇报SAS结果里面的P值,也可以根据开方值计算通常用的T值,你知道,开方的平方根就是近似的T值。注意,不要汇报开方,看起来很傻的。
4,拟合度方面,现在流行报告一个PseudoR2(有人叫假R2)。比较流行的就是McFadden1974的方法。很简单,用Log-Likelihood(SAS结果的-2 Log L)的Intercept Only除于InterceptAndCovariates再减去1就是假R2了。 && 第一章表就结束了。因为Logit不是线性模型,系数大小没有意义,要解释每个变量到底在多大程度上影响自变量,就有了第二张表,就是要汇报概率相对于解释变量变化的变化,也就是DependentVar的Derivative,下次再说。 && 不对之处,请指正。
-- && ※ 来源:·BBS 水木清华站 ·[FROM: 202.161.45.*]
无敌小猪发信人: huyidao ( 胡一刀), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Wed Apr 28 19:54:42 2004), 站内 && zan~~
【 在 smu (we mean business) 的大作中提到: 】
: 看到前面几个有关Logit回归的问题,给大家做点贡献吧。
: 1,对于(0,1)的情况,SAS里面默认0在先。要么你编码的时候讲事件编为0,要么在回归的时候加上Descending的选项。
: 2,结果一般用两张表。第一张就像一般的OLS回归,汇报系数的大小和符号(是的,Logit系数大小没有意义,符号表示影响的方向),系数是否为0的统计值,样本量(这个很重要,我看所有的文章里都有),最后就是模型的Fit。
: ...................
&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 202.116.64.*]
&发信人: lily0504 (红楼梦断), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 00:15:36 2004), 站内 && 精彩!赞一个! && 非常期待第二张表。 && 想请问一个问题 && 我的自变量有10个,但是通过T检验的变量和在Logistic模型中显著的变量不一致,有的变量在T检验中不显著,但在Logistic模型中非常显著,P值为0.003,那么是不是表示两者矛盾,在论文中只能采用其中一种方法啊?或者去掉T检验,或者去掉Logistic模型。 && 为什么会有这样现象呢?很迷惑。 && 【 在 smu (we mean business) 的大作中提到: 】
: 看到前面几个有关Logit回归的问题,给大家做点贡献吧。
: 1,对于(0,1)的情况,SAS里面默认0在先。要么你编码的时候讲事件编为0,要么在回归的时候加上Descending的选项。
: 2,结果一般用两张表。第一张就像一般的OLS回归,汇报系数的大小和符号(是的,Logit系数大小没有意义,符号表示影响的方向),系数是否为0的统计值,样本量(这个很重要,我看所有的文章里都有),最后就是模型的Fit。
: ...................
&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 218.244.240.*]
&thinking发信人: lovewan (&& ), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 00:36:28 2004), 站内 &&&& 因为t分布只有在asymptotic的情况下才近似于N(0,1),即卡方的开方 && 在样本量有限时,两者是有差别的,应该用模型报告的显著性水平 && 【 在 lily0504 (红楼梦断) 的大作中提到: 】
: 精彩!赞一个!
: 非常期待第二张表。
: 想请问一个问题
: ...................
&& -- && ※ 修改:·lovewan 于 Apr 29 00:42:57 修改本文·[FROM: 166.111.165.*]
※ 来源:·BBS 水木清华站 smth.org·[FROM: 166.111.165.*]
&发信人: lily0504 (红楼梦断), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 00:44:54 2004), 站内 && 非常的感谢!! && 弱弱的问,请问卡方的开方是不是回归模型中变量的P值啊?谢谢!!
【 在 lovewan (&& ) 的大作中提到: 】
: 因为t分布只有在asymptotic的情况下才近似于N(0,1),即卡方的开方
: 在样本量有限时,两者是有差别的,应该用模型报告的显著性水平
&&&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 218.244.240.*]
&thinking发信人: lovewan (&& ), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 00:50:26 2004), 站内 && 变量的p值是根据计算出来的wald统计量(或者卡方值)相对应的显著性水平 && 跟统计量本身是两回事 && 【 在 lily0504 (红楼梦断) 的大作中提到: 】
: 非常的感谢!!
: 弱弱的问,请问卡方的开方是不是回归模型中变量的P值啊?谢谢!!
&&&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 166.111.165.*]
we mean business发信人: smu (we mean business), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 08:53:02 2004), 站内 &&&& 这个没有矛盾的。而且两个方法都要有。如果我没有理解错的话,你的T是单变量分析吧。单变量的分析,现在一般比较流行非参数检验,也就是一般汇报的Wilcoxon Z值,SAS里面可以用Proc Npar1way Wilcoxon得到。当然也可以同时汇报参数检验(T)和非参数检验(Z),T和Z的方向一般是一致的。 && 单变量分析是个初步分析,没有控制其他的因素,你最后的结果应该以Logit回归的为准。 && 【 在 lily0504 (红楼梦断) 的大作中提到: 】
: 精彩!赞一个!
: 非常期待第二张表。
: 想请问一个问题
: ...................
&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 202.161.34.*]
&发信人: lily0504 (红楼梦断), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 09:12:54 2004), 站内 && 谢谢!!
【 在 smu (we mean business) 的大作中提到: 】
: 这个没有矛盾的。而且两个方法都要有。如果我没有理解错的话,你的T是单变量分析吧。单变量的分析,现在一般比较流行非参数检验,也就是一般汇报的Wilcoxon Z值,SAS里面可以用Proc Npar1way Wilcoxon得到。当然也可以同时汇报参数检验(T)和非参数检验(Z),T和Z的方
: 单变量分析是个初步分析,没有控制其他的因素,你最后的结果应该以Logit回归的为准。
&&&& -- && ※ 来源:·BBS 水木清华站 smth.org·[FROM: 218.244.240.*]
&we mean business发信人: smu (we mean business), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 15:36:36 2004), 站内 && 不好意思,有个大错误,怎么没有人指出?呵呵 && 4,拟合度方面,现在流行报告一个PseudoR2(有人叫假R2)。比较流行的就是McFadden1974的方法。很简单,用Log-Likelihood(SAS结果的-2 Log L)的Intercept Only除于InterceptAndCovariates再减去1就是假R2了。 &&&&&&&&&&&&&& ~~~~~~~~~~~~~
应该用InterceptAndCovariates除于InterceptOnly再减1再取绝对值 && 【 在 smu (we mean business) 的大作中提到: 】
: 看到前面几个有关Logit回归的问题,给大家做点贡献吧。
: 1,对于(0,1)的情况,SAS里面默认0在先。要么你编码的时候讲事件编为0,要么在回归的时候加上Descending的选项。
: 2,结果一般用两张表。第一张就像一般的OLS回归,汇报系数的大小和符号(是的,Logit系数大小没有意义,符号表示影响的方向),系数是否为0的统计值,样本量(这个很重要,我看所有的文章里都有),最后就是模型的Fit。
: ...................
&&&&&& -- && ※ 来源:·BBS 水木清华站 ·[FROM: 202.161.45.*]
we mean business发信人: smu (we mean business), 信区: CorpFin
标&&题: Re: 如何报告LOGISTIC回归结果
发信站: BBS 水木清华站 (Thu Apr 29 21:32:28 2004), 站内 && 第二张表实际上是对第一张表的补充,主要集中报告两个问题:一是模型预测的概率和实际概率的比较,这个很容易,SAS里面在Model后面加个Lackfit的选项就可以了(注意,结果的卡方不显著才是好的,说明预测的和实际的没有明显差异);一是概率相对于每个Ind变量变化的变化,也就是相对于每个变量的一阶导数。SAS里面似乎没有直接计算这个MarginalEffect,听说LimDep这个软件直接提供的。自己算也很简单,不过要写几句程序了。给大家一点提示吧(你们都是天才,是不用我提示的,呵呵)。 && ln[p/(1-p)]=Xb =&
p=exp(Xb)/1+exp(Xb)
p'=[exp/(1+exp)2]b=[exp/(1+exp)]*[1/(1+exp)]*b=prob(p=1)*prof(p=0)*b && 这里的exp就是exp(Xb),所以只用Output出来Xb的估计值,就可以计算prob(p=1)*prob(p=0)了,然后取平均值,和对应变量的估计系数相乘,就得到这个变量的Marginal系数了。 && 也有一些文章讲表一中的Logit系数换成上面计算的Marginal系数,所以一张表也就够了。但我建议用两张,我看好杂志上一般都是两张。 && 有错误一定要指出啊。 &&&&&& 【 在 smu (we mean business) 的大作中提到: 】
: 不好意思,有个大错误,怎么没有人指出?呵呵
: 4,拟合度方面,现在流行报告一个PseudoR2(有人叫假R2)。比较流行的就是McFadden1974的方法。很简单,用Log-Likelihood(SAS结果的-2 Log L)的Intercept Only除于InterceptAndCovariates再减去1就是假R2了。
:&&&&&&&&&&&&&& ~~~~~~~~~~~~~
: ...................
&&&&&& -- && ※ 来源:·BBS 水木清华站 ·[FROM: 202.161.45.*]
文章数:25&分页:

我要回帖

更多关于 spss有序logistic回归 的文章

 

随机推荐