回归分析查看源代码讨论查看历史
回归分析 |
回归分析(regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。运用十分广泛,回归分析按照涉及的自变量的多少,分为回归和多重回归分析;按照自变量的多少,可分为一元回归分析和多元回归分析;按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多重线性回归分析。
简介
《回归分析》源于作者多年在密歇根大学教授回归分析的课程讲义,从基本的统计概念讲起,对线性回归分析的基本假定、回归中的统计推论和回归诊断做了详尽的介绍,同时还涵盖了很多在社会科学中对实际研究非常有用的内容,包括虚拟变量、交互作用、辅助回归、多项式回归、样条函数回归和阶跃函数回归等。此外,《回归分析》还涉及通径分析、纵贯数据模型、多层线性模型和Iogit模型等方面的内容。
评价
谢宇,美国密歇根大学OtisDudleyDuncan杰出教授,同时也是密歇根大学社会学系、统计系和中国研究中心教授,社会研究院(ISR)人口研究中心和调查研究中心研究员,调查研究中心量化方法组主任;北京大学特聘讲座教授。2004年当选美国艺术与科学院院士和台湾“中央研究院”院士,2009年当选美国国家科学院院士。其研究领域包括:社会分层、统计方法、人口学、科学社会学和中国研究。主要著作有:《分类数据分析的统计方法》、《科学界的女性》、《美国亚裔的人口统计描述》、《社会学方法与定量研究》、《婚姻与同居》等。[1]