百科问答小站 logo
百科问答小站 font logo



Logistic 回归模型的参数估计为什么不能采用最小二乘法? 第1页

  

user avatar   edwin_hao_qing_han 网友的相关建议: 
      

恰恰相反,最小二乘法在实际中非常常用,而且很好用,名字叫linear probability model。特别是在实证中,如果用logit和probit的话,LPM经常是被视作benchmark的。因为除了predicted value不在【0,1】区间之内以外LPM几乎无懈可击。当然如果从计量的角度上来看,最大的不同其实是如何解释估计的参数,在非线性的情况下模型的边际概率的增长是同时取决于参数和X的值的,而在LPM的情况下概率的边际增长只和参数有关。

Logit和Probit的本质区别也在于此,经济学家很喜欢用Logit不单单是因为相比Probit而言Logit公式更直接,方便计算。同时也因为在超过两种选择存在的情况下其漂亮的IIA性质,即两种选择的概率比只取决于这两种选择本身的带来的utility相互pk,而与其他的可能备选无关。这种性质当偏好分布是正态的时候完全不存在,有时候甚至也可能成为掣肘。所以实际上在计量建模的时候我们首先应该考虑的是,数据到底在说什么,背后的经济学远离是什么,是否符合模型隐含假设,然后再去看用哪种方式去估计。许多实证文章完全凭借喜好乱来一气,logit, probit都上,看哪个显著就用哪个其实是很粗暴野蛮的纯统计学做法。某种意义上来说最小二乘之所以强大,也是因为其最简单实用,依赖假设少,重剑无锋,看起来蠢笨,却可以适用于大多数情况的关系。

说到底公式方法俱是身外物,如何从data中真正理解背后的经济学现象,从而用合适的模型去解释才是计量的关键。




  

相关话题

  Logistic 回归模型的参数估计为什么不能采用最小二乘法? 
  极大似然估计一定是相合估计吗? 
  广义线性模型(GLM)和广义线性混合模型(GLMM)怎么区分使用呢? 
  最大似然估计法是如何实现的? 
  Logistic 回归模型的参数估计为什么不能采用最小二乘法? 
  最大似然估计法是如何实现的? 
  神经网络,分类和回归问题,在网络结构上的区别是什么?分类比回归多一层softmax吗?诚心求教? 
  最大似然估计法是如何实现的? 
  如何才能看得懂变分贝叶斯方法(Variational Bayesian)? 
  Logistic 回归模型的参数估计为什么不能采用最小二乘法? 

前一个讨论
被「连环拒」是种怎样的体验?
下一个讨论
有哪些今人编造或者改动的让人尴尬无比的「古诗词」?





© 2024-11-15 - tinynew.org. All Rights Reserved.
© 2024-11-15 - tinynew.org. 保留所有权利