logit 和logit logisticc模型的区别

Logit模型与logistic模型的联系与区别? - 知乎54被浏览<strong class="NumberBoard-itemValue" title="1分享邀请回答11 条评论分享收藏感谢收起Logistic回归模型及应用建模_实践者_新浪博客
Logistic回归模型及应用建模
一、logistic回归模型概述
广义线性回归是探索“响应变量的期望”与“自变量”的关系,以实现对非线性关系的某种拟合。这里面涉及到一个“连接函数”和一个“误差函数”,“响应变量的期望”经过连接函数作用后,与“自变量”存在线性关系。选取不同的“连接函数”与“误差函数”可以构造不同的广义回归模型。当误差函数取“二项分布”而连接函数取“logit函数”时,就是常见的“logistic回归模型”,在0-1响应的问题中得到了大量的应用。&#8203;
Logistic回归主要通过构造一个重要的指标:发生比来判定因变量的类别。在这里我们引入概率的概念,把事件发生定义为Y=1,事件未发生定义为Y=0,那么事件发生的概率为p,事件未发生的概率为1-p,把p看成x的线性函数;
回归中,最常用的估计是最小二乘估计,因为使得p在[0,1]之间变换,最小二乘估计不太合适,有木有一种估计法能让p在趋近与0和1的时候变换缓慢一些(不敏感),这种变换是我们想要的,于是引入Logit变换,对p/(1-p)也就是发生与不发生的比值取对数,也称对数差异比。经过变换后,p对x就不是线性关系了。
logistic回归的公式可以表示为:
&#8203;其中P是响应变量取1的概率,在0-1变量的情形中,这个概率就等于响应变量的期望。
&#8203;这个公式也可以写成:
&#8203;可以看出,logistic回归是对0-1响应变量的期望做logit变换,然后与自变量做线性回归。参数估计采用极大似然估计,显著性检验采用似然比检验。
&#8203;建立模型并根据AIC准则选择模型后,可以对未知数据集进行预测,从而实现分类。模型预测的结果是得到每一个样本的响应变量取1的概率,为了得到分类结果,需要设定一个阈值p0——当p大于p0时,认为该样本的响应变量为1,否则为0。阈值大小对模型的预测效果有较大影响,需要进一步考虑。首先必须明确模型预测效果的评价指标。
&#8203;对于0-1变量的二分类问题,分类的最终结果可以用表格表示为:
&#8203;其中,d是“实际为1而预测为1”的样本个数,c是“实际为1而预测为0”的样本个数,其余依此类推。
显然地,主对角线所占的比重越大,则预测效果越佳,这也是一个基本的评价指标——总体准确率(a+d)/(a+b+c+d)。&#8203;
准确(分类)率=正确预测的正反例数/总数&&&&&
Accuracy=(a+d)/(a+b+c+d)&#8203;&#8203;
误分类率=错误预测的正反例数/总数&&&&&&&
Error rate=(b+c)/(a+b+c+d)=1-Accuracy
&#8203;正例的覆盖率=正确预测到的正例数/实际正例总数&#8203;
Recall(True Positive Rate,or Sensitivity)=d/(c+d)
正例的命中率=正确预测到的正例数/预测正例总数&#8203;
Precision(Positive Predicted Value,PV+)=d/(b+d)
负例的命中率=正确预测到的负例个数/预测负例总数
Negative predicted value(PV-)=a/(a+c)
通常将上述矩阵称为“分类矩阵”。一般情况下,我们比较关注响应变量取1的情形,将其称为Positive(正例),而将响应变量取0的情形称为Negative(负例)。常见的例子包括生物实验的响应、营销推广的响应以及信用评分中的违约等等。针对不同的问题与目的,我们通常采用ROC曲线与lift曲线作为评价logistic回归模型的指标。
&#8203;1)ROC曲线
设置了两个相应的指标:TPR与FPR。
TPR:True Positive
Rate(正例覆盖率),将实际的1正确地预测为1的概率,d/(c+d)。
FPR:False Positive
Rate,将实际的0错误地预测为1的概率,b/(a+b)。
TPR也称为Sensitivity(即生物统计学中的敏感度),也可以称为“正例的覆盖率”——将实际为1的样本数找出来的概率。覆盖率是重要的指标,例如若分类的目标是找出潜在的劣质客户(响应变量取值为1),则覆盖率越大表示越多的劣质客户被找出。
类似地,1-FPR其实就是“负例的覆盖率”,也就是把负例正确地识别为负例的概率。
&#8203;TPR与FPR相互影响,而我们希望能够使TPR尽量地大,而FPR尽量地小。影响TPR与FPR的重要因素就是上文提到的“阈值”。当阈值为0时,所有的样本都被预测为正例,因此TPR=1,而FPR=1。此时的FPR过大,无法实现分类的效果。随着阈值逐渐增大,被预测为正例的样本数逐渐减少,TPR和FPR各自减小,当阈值增大至1时,没有样本被预测为正例,此时TPR=0,FPR=0。
由上述变化过程可以看出,TPR与FPR存在同方向变化的关系(这种关系一般是非线性的),即,为了提升TPR(通过降低阈值),意味着FPR也将得到提升,两者之间存在类似相互制约的关系。我们希望能够在牺牲较少FPR的基础上尽可能地提高TPR,由此画出了ROC曲线。
ROC曲线的全称为“接受者操作特性曲线”(receiver operating
characteristic),其基本形式为:
&#65279;ROC曲线&
&#8203;当预测效果较好时,ROC曲线凸向左上角的顶点。平移图中对角线,与ROC曲线相切,可以得到TPR较大而FPR较小的点。模型效果越好,则ROC曲线越远离对角线,极端的情形是ROC曲线经过(0,1)点,即将正例全部预测为正例而将负例全部预测为负例。ROC曲线下的面积可以定量地评价模型的效果,记作AUC,AUC越大则模型效果越好。
当我们分类的目标是将正例识别出来时(例如识别有违约倾向的信用卡客户),我们关注TPR,此时ROC曲线是评价模型效果的准绳。
&#8203;2)lift曲线
在营销推广活动中,我们的首要目标并不是尽可能多地找出那些潜在客户,而是提高客户的响应率。客户响应率是影响投入产出比的重要因素。此时,我们关注的不再是TPR(覆盖率),而是另一个指标:命中率。
回顾前面介绍的分类矩阵,正例的命中率是指预测为正例的样本中的真实正例的比例,即d/(b+d),一般记作PV。
在不使用模型的情况下,我们用先验概率估计正例的比例,即(c+d)/(a+b+c+d),可以记为k。
定义提升值lift=PV/k。
lift揭示了logistic模型的效果。例如,若经验告诉我们10000个消费者中有1000个是我们的潜在客户,则我们向这10000个消费者发放传单的效率是10%(即客户的响应率是10%),k=(c+d)/(a+b+c+d)=10%。通过对这10000个消费者进行研究,建立logistic回归模型进行分类,我们得到有可能比较积极的1000个消费者,b+d=1000。如果此时这1000个消费者中有300个是我们的潜在客户,d=300,则命中率PV为30%。此时,我们的提升值lift=30%/10%=3,客户的响应率提升至原先的三倍,提高了投入产出比。
为了画lift图,需要定义一个新的概念depth深度,这是预测为正例的比例,(b+d)/(a+b+c+d)。
与ROC曲线中的TPR和FPR相同,lift和depth也都受到阈值的影响。
当阈值为0时,所有的样本都被预测为正例,因此depth=1,而PV=d/(b+d)=(0+d)/(0+b+0+d)=k,于是lift=1,模型未起提升作用。随着阈值逐渐增大,被预测为正例的样本数逐渐减少,depth减小,而较少的预测正例样本中的真实正例比例逐渐增大。当阈值增大至1时,没有样本被预测为正例,此时depth=0,而lift=0/0。
由此可见,lift与depth存在相反方向变化的关系。在此基础上作出lift图:
&#65279;lift
&#8203;&与ROC曲线不同,lift曲线凸向(0,1)点。我们希望在尽量大的depth下得到尽量大的lift(当然要大于1),也就是说这条曲线的右半部分应该尽量陡峭。
至此,我们对ROC曲线和lift曲线进行了描述。这两个指标都能够评价logistic回归模型的效果,只是分别适用于不同的问题:
如果是类似信用评分的问题,希望能够尽可能完全地识别出那些有违约风险的客户(不使一人漏网),我们需要考虑尽量增大TPR(覆盖率),同时减小FPR(减少误杀),因此选择ROC曲线及相应的AUC作为指标;
如果是做类似数据库精确营销的项目,希望能够通过对全体消费者的分类而得到具有较高响应率的客户群,从而提高投入产出比,我们需要考虑尽量提高lift(提升度),同时depth不能太小(如果只给一个消费者发放传单,虽然响应率较大,却无法得到足够多的响应),因此选择lift曲线作为指标。
3)相关R应用包
普通二分类 logistic 回归 用系统的 glm
因变量多分类 logistic 回归
有序分类因变量:用 MASS 包里的 polrb
无序分类因变量:用 nnet 包里的 multinom
条件logistic回归,用 survival 包里的 clogit
二、相关应用例子&#8203;:Binary
Logistic(因变量只能取两个值1和0虚拟因变量)&#8203;
案例一:本文用例来自于John
Maindonald所著的《Data Analysis and Graphics
Using&R》一书,其中所用的数据集是anesthetic,数据集来自于一组医学数据,其中变量conc表示麻醉剂的用量,move则表示手术病人是否有所移动,而我们用nomove做为因变量,因为研究的重点在于conc的增加是否会使nomove的概率增加。
&#8203;首先载入数据集并读取部分文件,为了观察两个变量之间关系,我们可以利cdplot函数来绘制条件密度图
install.packages("DAAG")&#8203;
library(lattice)&#8203;
library(DAAG)&#8203;
head(anesthetic)&#8203;
move conc & logconc nomove
&1.0 0.0000000 &
&1.2 0.1823216 &
&1.4 0.3364722 &
&1.4 0.3364722 &
&1.2 0.1823216 &
&2.5 0.9162907 &
cdplot(factor(nomove)~conc,data=anesthetic,main='条件密度图',ylab='病人移动',xlab='麻醉剂量')&#8203;
从图中可见,随着麻醉剂量加大,手术病人倾向于静止。下面利用logistic回归进行建模,得到intercept和conc的系数为-6.47和5.57,由此可见麻醉剂量超过1.16(6.47/5.57)时,病人静止概率超过50%。&#8203;
anes1=glm(nomove~conc,family=binomial(link='logit'),data=anesthetic)&#8203;
summary(anes1)
结果显示:
glm(formula = nomove ~ conc, family = binomial(link =
"logit"),&
& & data =
anesthetic)
Deviance Residuals:&
&Median & &
-1.76666 &-0.74407 &
0.03413 & 0.68666 & 2.06900
Coefficients:
Estimate Std.
Error&&& z
value&&&&&&&
(Intercept) & -6.469 &
0.00748 **
&&&&&2.044
&&&&&&&2.724&&&&&&&&&&0.00645
Signif. codes: &0 ‘***’ 0.001 ‘**’ 0.01
‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be
& & Null deviance:
41.455 &on 29 &degrees of
Residual deviance: 27.754 &on 28
&degrees of freedom
AIC: 31.754
Number of Fisher Scoring iterations:
&下面做出模型的ROC曲线
anes1=glm(nomove~conc,family=binomial(link='logit'),data=anesthetic)&#8203;
对模型做出预测结果&#8203;
pre=predict(anes1,type='response')&#8203;
将预测概率pre和实际结果放在一个数据框中&#8203;
data=data.frame(prob=pre,obs=anesthetic$nomove)&#8203;
将预测概率按照从低到高排序&#8203;&#8203;
data=data[order(data$prob),]&#8203;
n=nrow(data)&#8203;&#8203;
tpr=fpr=rep(0,n)&#8203;
根据不同的临界值threshold来计算TPR和FPR,之后绘制成图&#8203;&#8203;&#8203;
for (i in 1:n){&#8203;
threshold=data$prob[i]&#8203;
tp=sum(data$prob&threshold&data$obs==1)
fp=sum(data$prob&threshold&data$obs==0)
tn=sum(data$prob
fn=sum(data$prob
tpr[i]=tp/(tp+fn)& #真正率&#8203;
fpr[i]=fp/(tn+fp)& #假正率&#8203;
plot(fpr,tpr,type='l')&#8203;
abline(a=0,b=1)
R中也有专门绘制ROC曲线的包,如常见的ROCR包,它不仅可以用来画图,还能计算ROC曲线下面面积AUC,以评价分类器的综合性能,该数值取0-1之间,越大越好。&#8203;
library(ROCR)&#8203;
pred=prediction(pre,anesthetic$nomove)
performance(pred,'auc')@y.values
perf=performance(pred,'tpr','fpr')&#8203;
plot(perf)
还可以使用更加强大的pROC包,它可以方便的比较两个分类器,并且能自动标出最优临界点,图形看起来比较漂亮:&#8203;&#8203;
install.packages("pROC")
library(pROC)&#8203;
modelroc=roc(anesthetic$nomove,pre)
plot(modelroc,print.auc=TRUE,auc.polygon=TRUE,grid=c(0.1,0.2),grid.col=c("green","red"),max.auc.polygon=TRUE,auc.polygon.col="blue",print.thres=TRUE)
上面的方法是使用原始的0-1数据进行建模,即每一行数据均表示一个个体,另一种是使用汇总数据进行建模,先将原始数据按下面步骤进行汇总
anestot=aggregate(anesthetic[,c('move','nomove')],by=list(conc=anesthetic$conc),FUN=sum)&#8203;&#8203;
结果如下:&#8203;&#8203;
conc move nomove
anestot$conc=as.numeric(as.character(anestot$conc))&#8203;
anestot$total=apply(anestot[,c('move','nomove')],1,sum)&#8203;&#8203;
anestot$total
[1] 7 5 6 6 4 2
anestot$prop=anestot$nomove/anestot$total&#8203;
anestot$prop
[1] 0.....0000000
对于汇总数据,有两种方法可以得到同样的结果,一种是将两种结果的向量合并做为因变量,如anes2模型。另一种是将比率做为因变量,总量做为权重进行建模,如anes3模型。这两种建模结果是一样的。
anes2=glm(cbind(nomove,move)~conc,family=binomial(link='logit'),data=anestot)&#8203;&#8203;&#8203;&#8203;
summary(anes2)
结果显示如下:&#8203;&#8203;
glm(formula = cbind(nomove, move) ~ conc, family = binomial(link
= "logit"),
data = anestot)
Deviance Residuals:
1 2 3 4 5 6
0.267 0.500 0.26
Coefficients:
&&&&&&&&&&&&&&&&&
Estimate& Std. Error& z
(Intercept) -6.469
& 2.419 &&
-2.675&& &
0.00748 **
conc&&&&&&&&&
2.724&&&&&
0.00645 **
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 15.4334 on 5 degrees of freedom
Residual deviance: 1.7321 on 4 degrees of freedom
AIC: 13.811
Number of Fisher Scoring iterations: 5
anes3=glm(prop~conc,family=binomial(link='logit'),weights=total,data=anestot)&#8203;&#8203;
结果和上面的一样。
&#8203;根据logistic模型,我们可以使用predict函数来预测结果,下面根据上述模型来绘图
x=seq(from=0,to=3,length.out=30)&#8203;
&y=predict(anes1,data.frame(conc=x),type='response')&#8203;
plot(prop~conc,pch=16,col='red',data=anestot,xlim=c(0.5,3),main='Logistic回归曲线图',ylab='病人静止概率',xlab='麻醉剂量')
lines(y~x,lty=2,col='blue')
案例二:利用iris数据集,进行逻辑回归二分类测试,该数据集是R语言自带得数据集,包括四个属性,和三个分类。逻辑回归我们用glm函数实现,该函数提供了各种类型的回归,如:提供正态、指数、gamma、逆高斯、Poisson、二项。我们用的logistic回归使用的是二项分布族binomial。
&#8203;index &-
which(iris$Species == 'setosa')&#8203;
将种类为setosa的数据排除出我们需要的数据集
ir &- iris[- index,]
levels(ir$Species)[1] &- ''
生成训练集&#8203;
split &- sample(100,100*(2/3))
ir_train &-
ir[split,]&#8203;
生成测试集
&- ir[-split,]
通过训练集建立模型&#8203;
model &- glm(Species
~.,family=binomial(link='logit'),data=ir_train)&#8203;
summary(model)&#8203;
模型运行结果:&#8203;
glm(formula = Species ~ ., family = binomial(link =
"logit"),data = ir_train)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.339e-04 -2.100e-08 2.100e-08 2.100e-08 1.059e-04
Coefficients:
Estimate Std. Error z value Pr(&z)
(Intercept) -247.01 -0.004 0.997
Sepal.Length 12.45 .000 1.000
Sepal.Width -285.61 .003 0.998
Petal.Length 154.76
0.001 0.999
Petal.Width 869.60
0.004 0.997
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 9.0949e+01 on 65 degrees of freedom
Residual deviance: 4.0575e-08 on 61 degrees of freedom
Number of Fisher Scoring iterations: 25
通过anova()函数
对模型进行方差分析&#8203;
anova(model, test="Chisq")&#8203;
方差分析如下:&#8203;
Analysis of Deviance Table
Model: binomial, link: logit
Response: Species
Terms added sequentially (first to last)
Df Deviance Resid. Df Resid. Dev Pr(&Chi)
NULL 65 90.949
Sepal.Length 1 18.934 64 72.015 1.353e-05 ***
Sepal.Width 1 0.131 63 71.884 0.7176
Petal.Length 1 51.960 62 19.924 5.665e-13 ***
Petal.Width 1 19.924 61 0.000 8.058e-06 ***
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’
下面通过McFadden R2指标进一步对模型进行分析
install.packages("pscl")
library(pscl)
pR2(model)
llh&&&&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&
McFadden&&&&&
r2ML&&&&&&&&&
-2. -4. 9. 1.
7. 1.&#8203;
为了得到分类结果,需要设定一个阈值p0——当p大于p0时,认为该样本的响应变量为1,否则为0。阈值大小对模型的预测效果有较大影响,需要进一步考虑。首先必须明确模型预测效果的评价指标。&#8203;
求解训练模型的最佳阀值
对模型做出预测结果&#8203;&#8203;
model &- glm(Species
~.,family=binomial(link='logit'),data=ir_train)&#8203;
pre1=predict(model,type='response')&#8203;
将预测概率pre1和实际结果放在一个数据框中&#8203;
data1=data.frame(prob=pre1,obs=ifelse(ir_train$Species=="virginica",1,0))
将预测概率按照从低到高排序&#8203;&#8203;
data1=data1[order(data1$prob),]&#8203;
n=nrow(data1)&#8203;&#8203;
tpr=fpr=rep(0,n)&#8203;&#8203;&#8203;
根据不同的临界值threshold来计算TPR和FPR,之后绘制成图&#8203;&#8203;&#8203;
for (i in 1:n){&#8203;
threshold=data1$prob[i]&#8203;
tp=sum(data1$prob&threshold&data1$obs==1)
fp=sum(data1$prob&threshold&data1$obs==0)
tn=sum(data$prob
fn=sum(data$prob&#8203;
tpr[i]=tp/(tp+fn) #真正率&#8203;
fpr[i]=fp/(tn+fp) #假正率&#8203;
}&#8203;&#8203;&#8203;&#8203;&#8203;
plot(fpr,tpr,type='l')&#8203;
abline(a=0,b=1)&#8203;
下面通过pROC包自动标出最优临界点(0.506)
install.packages("pROC")
library(pROC)&#8203;
modelroc1=roc(ifelse(ir_train$Species=="virginica",1,0),pre1)&#8203;
plot(modelroc1,print.auc=TRUE,auc.polygon=TRUE,grid=c(0.1,0.2),grid.col=c("green","red"),max.auc.polygon=TRUE,auc.polygon.col="skyblue",print.thres=TRUE)&#8203;
评估模型的预测效果
predict &-
predict(model,type='response',newdata=ir_test)&#8203;&#8203;
predict.results &- ifelse(
0.506,"virginica","versicolor")&#8203;
misClasificError &- mean(predict.results !=
ir_test$Species)
print(paste('Accuracy',1-misClasificError))&#8203;
[1] "Accuracy 1"
最后一步,我们将通过画ROC曲线,并计算其AUC面积,作为评估二类分类效果的一个典型测量&#8203;&#8203;
install.packages("ROCR")&#8203;
library(gplots)
library(ROCR)
predict(model,type='response',newdata=ir_test)&#8203;&#8203;&#8203;
p.results &- ifelse( p&
0.5,1,0)&#8203;
pr &- prediction(p.results,
ifelse(ir_test$Species=="virginica",1,0))&#8203;
prf &- performance(pr, measure = "tpr", x.measure
plot(prf)&#8203;
auc &- performance(pr, measure = "auc")
auc &- auc@y.values[[1]]&#8203;
auc&#8203;
&real &- ir_test$Species
data.frame(real,predict)
res &- data.frame(real,predict
=ifelse(predict&0.5,'virginca','versicorlor'))
查看模型效果
plot(res)&#8203;
博客等级:
博客积分:0
博客访问:84,605
关注人气:0
荣誉徽章:&>&logit模型的详解
logit模型的详解
上传大小:460KB
logit模型的详解
综合评分:0
10积分/C币
下载个数:
{%username%}回复{%com_username%}{%time%}\
/*点击出现回复框*/
$(".respond_btn").on("click", function (e) {
$(this).parents(".rightLi").children(".respond_box").show();
e.stopPropagation();
$(".cancel_res").on("click", function (e) {
$(this).parents(".res_b").siblings(".res_area").val("");
$(this).parents(".respond_box").hide();
e.stopPropagation();
/*删除评论*/
$(".del_comment_c").on("click", function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_invalid/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parents(".conLi").remove();
alert(data.msg);
$(".res_btn").click(function (e) {
var parentWrap = $(this).parents(".respond_box"),
q = parentWrap.find(".form1").serializeArray(),
resStr = $.trim(parentWrap.find(".res_area_r").val());
console.log(q);
//var res_area_r = $.trim($(".res_area_r").val());
if (resStr == '') {
$(".res_text").css({color: "red"});
$.post("/index.php/comment/do_comment_reply/", q,
function (data) {
if (data.succ == 1) {
var $target,
evt = e || window.
$target = $(evt.target || evt.srcElement);
var $dd = $target.parents('dd');
var $wrapReply = $dd.find('.respond_box');
console.log($wrapReply);
//var mess = $(".res_area_r").val();
var mess = resS
var str = str.replace(/{%header%}/g, data.header)
.replace(/{%href%}/g, 'http://' + window.location.host + '/user/' + data.username)
.replace(/{%username%}/g, data.username)
.replace(/{%com_username%}/g, data.com_username)
.replace(/{%time%}/g, data.time)
.replace(/{%id%}/g, data.id)
.replace(/{%mess%}/g, mess);
$dd.after(str);
$(".respond_box").hide();
$(".res_area_r").val("");
$(".res_area").val("");
$wrapReply.hide();
alert(data.msg);
}, "json");
/*删除回复*/
$(".rightLi").on("click", '.del_comment_r', function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_comment_del/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parent().parent().parent().parent().parent().remove();
$(e.target).parents('.res_list').remove()
alert(data.msg);
//填充回复
function KeyP(v) {
var parentWrap = $(v).parents(".respond_box");
parentWrap.find(".res_area_r").val($.trim(parentWrap.find(".res_area").val()));
评论共有0条
zhengshuyue
综合评分:
积分/C币:4
综合评分:
积分/C币:5
综合评分:
积分/C币:0
VIP会员动态
CSDN下载频道资源及相关规则调整公告V11.10
下载频道用户反馈专区
下载频道积分规则调整V1710.18
spring mvc+mybatis+mysql+maven+bootstrap 整合实现增删查改简单实例.zip
资源所需积分/C币
当前拥有积分
当前拥有C币
输入下载码
为了良好体验,不建议使用迅雷下载
logit模型的详解
会员到期时间:
剩余下载个数:
剩余积分:0
为了良好体验,不建议使用迅雷下载
积分不足!
资源所需积分/C币
当前拥有积分
您可以选择
程序员的必选
绿色安全资源
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
您的积分不足,将扣除 10 C币
为了良好体验,不建议使用迅雷下载
无法举报自己的资源
你当前的下载分为234。
你还不是VIP会员
开通VIP会员权限,免积分下载
你下载资源过于频繁,请输入验证码
您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:!
若举报审核通过,可返还被扣除的积分
被举报人:
举报的资源分:
请选择类型
资源无法下载 ( 404页面、下载失败、资源本身问题)
资源无法使用 (文件损坏、内容缺失、题文不符)
侵犯版权资源 (侵犯公司或个人版权)
虚假资源 (恶意欺诈、刷分资源)
含色情、危害国家安全内容
含广告、木马病毒资源
*详细原因:
logit模型的详解> 问题详情
与Logistic模型不同的另一种描述种群增长规律的是Gompertz模型:,其中r和N的意义与Logistic模型相同.
悬赏:0&答案豆
提问人:匿名网友
发布时间:
您可能感兴趣的试题
1在种群竞争模型中设σ1σ2=1(σ1≠σ2),求平衡点并分析其稳定性.2对于种群竞争模型的第3种情况:σ1<1,σ2<1(图4-3),分析相轨线的趋势并画出示意图,解释平衡点P3稳定的意义.3在种群相互依存模型中,按以下4种情况作相轨线示意图,并解释平衡点稳定的意义.4与模型稍有不同,如果两个种群都能独立生存,共处时又能相互提供食物,试建立种群依存模型并讨论平衡点的稳定性,解释稳定的意义.
我有更好的答案
请先输入下方的验证码查看最佳答案
图形验证:
验证码提交中……
每天只需0.4元
选择支付方式
支付宝付款
郑重提醒:支付后,系统自动为您完成注册
请使用微信扫码支付(元)
支付后,系统自动为您完成注册
遇到问题请联系在线客服QQ:
恭喜你被选中为
扫一扫-免费查看答案!
请您不要关闭此页面,支付完成后点击支付完成按钮
遇到问题请联系在线客服QQ:
恭喜您!升级VIP会员成功
提示:请截图保存您的账号信息,以方便日后登录使用。
常用邮箱:
用于找回密码
确认密码:

我要回帖

更多关于 logit模型与logistic 的文章

 

随机推荐