spatialreg | 空间滞后模型、空间误差模型和空间杜宾模型简单形式的R语言实现...

article/2025/11/7 6:12:23

旧文重发,原文链接:https://mp.weixin.qq.com/s/pHRS9BfkCMe1uQOSkHmqAw

关于空间计量模型,小编是通过阅读勒沙杰(James LeSage)和佩斯(R.Kelley Pace)合著的《空间计量经济学导论》(Introduction of Spatial Econometrics)入门的,但是当时着重的是理解这些模型,并没有用代码去实现。

作者也提供了书中模型的Matlab代码,可以在网站http://www.spatial-econometrics.com/(Econometrics Toolbox: by James P. LeSage)上查看。另外,作者之一的佩斯还有一个网站http://www.spatial-statistics.com/(Spatial Statistics Software and Articles),上面有一些空间统计领域的Matlab工具箱和论文。

由于小编目前也在学习阶段,因此本篇只会使用R语言去实现这些模型的一些比较简单的形式,使用的工具包是spatialreg,后续可能会分享一些更复杂的内容。

1 模型形式

1.1 空间滞后模型

自回归模型(Autoregressive Model,AR)在时间序列分析中很易理解,即因变量与它的时间滞后值(Lag)存在相关性,这也意味着自回归模型放弃了因变量独立性的假设。

在空间计量模型中,空间滞后值被认为是邻近空间单元的属性(加权)值,因此下面是一个形式比较简单的空间自回归模型(最简单的形式应该是不包含自变量),也就是空间滞后模型(Spatial Lagged Model,SLM):

  • 空间自回归模型一般就是指空间滞后模型,但它也有一个更广义的概念,即所有包含因变量的空间滞后项的模型;

  • 模型估计时会首先对参数进行估计,再使用广义最小二乘法估计和其他参数。

1.2 空间误差模型

空间误差模型(Spatial Error Model,SEM)可以分解成如下两步:

上述两式合并得,

402 Payment Required

  • 第一个式子并非线性模型,因为不需要服从正态分布;

  • 模型估计时会首先对参数进行估计,再使用广义最小二乘法估计和其他参数。

1.3 空间杜宾模型

空间杜宾模型(Spatial Durbin Model,SDM)假定因变量取值除受本地自变量的影响外,还会受到邻近地区的自变量影响,即在模型中加入自变量的空间滞后值:

402 Payment Required

1.4 复合模型

上述三个模型各自有针对性的假设,但这些假设相互之间并不排斥,可以在同一个模型中存在。

1.4.1 空间自相关模型

  • 该模型综合了空间滞后模型和空间误差模型,称作空间自相关模型(Spatial Autocorrelation Model,SAC);

  • 当或其中一个为0时,SAC就退化成了SEM或SLM。

1.4.2 空间杜宾(滞后)模型

402 Payment Required

  • 该模型综合了空间滞后模型和空间杜宾模型,但习惯上仍称作是空间杜宾模型。

1.4.3 空间杜宾误差模型

  • 该模型综合了空间误差模型和空间杜宾模型,称作空间杜宾误差模型(Spatial Durbin Error Model,SDEM)。

1.4.4 空间自相关杜宾模型

  • 该模型是最一般的形式,同时综合了三种基本模型,也可以认为是综合了空间自相关模型和空间杜宾模型。

2 R语言代码

2.1 函数概述

上述7个模型形式可以通过spatialreg工具包中的3个函数来实现:

  • lagsarlm():空间滞后模型、空间杜宾(滞后)模型

  • errorsarlm():空间误差模型、空间杜宾误差模型

  • sacsarlm():空间自相关模型、空间自相关杜宾模型

2.2 线性模型

示例数据如下:

library(sf)
library(tidyverse)
usa <- albersusa::counties_sf(proj = "laea") %>%mutate(fips = as.character(fips)) %>%left_join(socviz::county_data, by = c("fips" = "id"))

因变量取收入,自变量取黑人比例。在运行空间计量模型前,先使用线性模型进行建模:

data <- st_drop_geometry(usa)
model <- lm(hh_income ~ black, data = data)summary(model)
## Call:
## lm(formula = hh_income ~ black, data = data)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -27680  -7341  -2171   4653  76006 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 47765.53     244.55  195.32   <2e-16 ***
## black        -199.18      14.29  -13.94   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 11570 on 3141 degrees of freedom
## Multiple R-squared:  0.05825,    Adjusted R-squared:  0.05795 
## F-statistic: 194.3 on 1 and 3141 DF,  p-value: < 2.2e-16

2.3 莫兰指数

使用莫兰指数检验因变量的空间自相关性:

library(spdep)
nb <- poly2nb(usa)
listW <- nb2listw(nb, zero.policy = T)jpeg("1.jpeg", width = 8, height = 6, res = 600, units = "in")
moran.plot(usa$hh_income, listW,zero.policy = T,labels = F,pch = 20, cex = 0.1)
dev.off()
  • 部分县没有邻接单元,设置zero.policy = T可以允许空间权重矩阵(实际空间数据结构是list)存在空元素。

a5fe18ff7ece3123f81adf06f75d29f7.png

2.4 空间计量模型

lagsarlm()函数为例,它的完整语法结构如下:

lagsarlm(formula, data = list(),listw, na.action,Durbin, type,method="eigen", quiet=NULL,zero.policy=NULL, interval=NULL,tol.solve=.Machine$double.eps,trs=NULL, control=list())

本篇仅涉及以下几个参数,其余参数使用...代替:

lagsarlm(formula, data = list(),listw, Durbin,zero.policy = NULL,...,)
  • formula:与对应的线性模型的表达式一致;

  • data:变量所在的数据框;

  • listw:空间权重矩阵;

  • Durbin:是否在模型中加入自变量的空间滞后值;

  • zero.policy:针对权重矩阵存在空元素的应对方案,TRUE表示对应的空间滞后的权重为0。

2.4.1 空间滞后模型

library(spatialreg)
sl_model <- lagsarlm(hh_income ~ black, data = data,listw = listW, zero.policy = T)summary(sl_model)
## Call:lagsarlm(formula = hh_income ~ black, data = data, listw = listW, 
##     zero.policy = T)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -26914.4  -4772.3  -1298.9   2996.4  72040.0 
## 
## Type: lag 
## Regions with no neighbours included:
##  2788 2836 2995 3135 3140 3141 3143 
## Coefficients: (numerical Hessian approximate standard errors) 
##              Estimate Std. Error z value  Pr(>|z|)
## (Intercept) 14401.438    628.923  22.899 < 2.2e-16
## black        -121.955     10.236 -11.915 < 2.2e-16
## 
## Rho: 0.71234, LR test value: 1783.5, p-value: < 2.22e-16
## Approximate (numerical Hessian) standard error: 0.012906
##     z-value: 55.195, p-value: < 2.22e-16
## Wald statistic: 3046.5, p-value: < 2.22e-16
## 
## Log likelihood: -32973.68 for lag model
## ML residual variance (sigma squared): 67335000, (sigma: 8205.8)
## Number of observations: 3143 
## Number of parameters estimated: 4 
## AIC: 65955, (AIC for lm: 67737)

2.4.2 空间误差模型

library(spatialreg)
se_model <- errorsarlm(hh_income ~ black, data = data,listw = listW, zero.policy = T)summary(se_model)
## Call:errorsarlm(formula = hh_income ~ black, data = data, listw = listW, 
##     zero.policy = T)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -30053.7  -4590.2  -1184.3   2843.3  56012.9 
## 
## Type: error 
## Regions with no neighbours included:
##  2788 2836 2995 3135 3140 3141 3143 
## Coefficients: (asymptotic standard errors) 
##              Estimate Std. Error z value  Pr(>|z|)
## (Intercept) 50696.822    725.463  69.882 < 2.2e-16
## black        -400.074     18.035 -22.183 < 2.2e-16
## 
## Lambda: 0.82333, LR test value: 2384.3, p-value: < 2.22e-16
## Approximate (numerical Hessian) standard error: 0.011128
##     z-value: 73.99, p-value: < 2.22e-16
## Wald statistic: 5474.5, p-value: < 2.22e-16
## 
## Log likelihood: -32673.29 for error model
## ML residual variance (sigma squared): 52510000, (sigma: 7246.4)
## Number of observations: 3143 
## Number of parameters estimated: 4 
## AIC: 65355, (AIC for lm: 67737)

2.4.3 空间杜宾误差模型

library(spatialreg)
sd_model <- errorsarlm(hh_income ~ black, data = data,listw = listW, zero.policy = T,Durbin = T)summary(sd_model)
## Call:errorsarlm(formula = hh_income ~ black, data = data, listw = listW, 
##     Durbin = T, zero.policy = T)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -29657.6  -4639.4  -1123.4   2817.7  56324.1 
## 
## Type: error 
## Regions with no neighbours included:
##  2788 2836 2995 3135 3140 3141 3143 
## Coefficients: (asymptotic standard errors) 
##              Estimate Std. Error  z value  Pr(>|z|)
## (Intercept) 48577.976    753.720  64.4509 < 2.2e-16
## black        -392.654     17.888 -21.9512 < 2.2e-16
## lag.black     223.080     36.404   6.1278 8.909e-10
## 
## Lambda: 0.81169, LR test value: 2384.6, p-value: < 2.22e-16
## Approximate (numerical Hessian) standard error: 0.011396
##     z-value: 71.228, p-value: < 2.22e-16
## Wald statistic: 5073.5, p-value: < 2.22e-16
## 
## Log likelihood: -32655.17 for error model
## ML residual variance (sigma squared): 52280000, (sigma: 7230.5)
## Number of observations: 3143 
## Number of parameters estimated: 5 
## AIC: 65320, (AIC for lm: 67703)

6d5e6a242f4a3a4b060d618287e99d5c.jpeg

http://chatgpt.dhexx.cn/article/XeFv7XTP.shtml

相关文章

空间杜宾模型SPDM

T个周期&#xff0c;N个地区&#xff0c;K个解释变量。 1.基准面板回归模型 其中,x1为核心的解释变量&#xff0c;其余为控制变量。 2.空间面板滞后模型SPLM 其中&#xff0c;W为n*n阶距离矩阵&#xff0c;为空间滞后系数。揭示了邻近地区Y值对本地区Y值的影响效应。 3.空间…

空间计量经济学(3)---空间杜宾模型与广义嵌套空间模型

一、空间杜宾模型 1.空间杜宾模型形式 空间杜宾模型(SDM)是空间滞后模型和空间误差项模型的组合扩展形式,可通过对空间滞后模型和空间误差模型增加相应的约束条件设立。空间杜宾模型(SDM)是一个通过加入空间滞后变量而增强的SAR模型(空间滞后模型)。即: 式中𝑾𝟏…

stata实现经济生态的空间杜宾模型

文章目录 摘要一. Stata 实现空间杜宾模型过程1.空间权重矩阵的生成1.1 获取地图json数据文件1.2 获取市级行政单元Shapefile1.3 Arcgis创建空间权重矩阵1.4 创建经济距离权重矩阵 2.莫兰指数分析2.1 收集整理需要被解释分析的变量2.2 莫兰指数的计算 3. 空间杜宾模型简单实现4…

学习中遇到的知识点

A 1.anchor-based&#xff1a; 优点&#xff1a;加入了先验知识&#xff0c;模型训练相对稳定&#xff1b;密集的anchor box可有效提高召回率&#xff0c;对于小目标检测来说提升非常明显。 缺点&#xff1a;对于多类别目标检测&#xff0c;超参数相对难设计&#xff1b;冗余b…

NLP原理和应用入门:paddle(梯度裁剪、ONNX协议、动态图转静态图、推理部署)

目录 一、梯度裁剪 1.1设定范围值裁剪 1. 全部参数裁剪&#xff08;默认&#xff09; 2. 部分参数裁剪 1.2 通过L2范数裁剪 1.3通过全局L2范数裁剪 二. 模型导出ONNX协议 三、动态图转静态图 3.1两种图定义 3.2 什么场景下需要动态图转静态图 3.3为什么动态图模式越来…

论文知识点(补)

时间戳: 时间戳是一份能够表示一份数据在一个特定时间点已经存在的完整的可验证的数据。 &#xff08;1&#xff09;Positive pairs&#xff1a;正样本对 &#xff08;2&#xff09;negative pair&#xff1a;负样本对 &#xff08;1&#xff09;假阳性&#xff1a;把不具备你…

Knowledge Distillation with the Reused Teacher Classifier论文阅读+代码解析

论文地址点这里 一. 介绍 给定一个具有大量参数的强大教师模型&#xff0c;知识蒸馏(KD)的目标是帮助另一个参数化较少的学生模型获得与较大的教师模型相似的泛化能力。实现这一目标的一种直接方法是在给定相同输入的情况下对齐它们的logits或类预测。由于KD技术概念简单&…

不仅搞定“梯度消失”,还让CNN更具泛化性:港科大开源深度神经网络训练新方法

原文链接&#xff1a;不仅搞定“梯度消失”&#xff0c;还让CNN更具泛化性&#xff1a;港科大开源深度神经网络训练新方法 paper: https://arxiv.org/abs/2003.10739 code: https://github.com/d-li14/DHM 该文是港科大李铎、陈启峰提出的一种优化模型训练、提升模型泛化性能与…

Rocket Launching: A Universal and Efficient Framework for Training Well-performing Light Net论文阅读

目录 摘要 引言 相关工作 方法 框架和损失函数 方法特色 实验 不同的共享结构 CIFAR-10 rocket和AT的中间层注意图的可视化 结论 摘要 提出了用好网络帮助小网络训练的新的统一框架 这个框架中&#xff0c;好网络全程都在帮助小网络学习 分析了不同的loss的效果 用叫…

面试之算法知识点总结

1.如何防止过拟合 加样本&#xff0c;加正则化惩罚项&#xff0c;加dropout&#xff0c;减小网络规模&#xff0c;early stopping 2.cacade r-cnn https://zhuanlan.zhihu.com/p/42553957 3.朴素贝叶斯的朴素 之所以叫朴素&#xff0c;就是因为属性条件独立的假设&#xf…

【论文笔记_在线蒸馏、GAN】Online Multi-Granularity Distillation for GAN Compression

2021年。 摘要 生成性对抗网络&#xff08;GAN&#xff09;在生成优秀图像方面取得了巨大的成功&#xff0c;但是&#xff0c;由于计算成本高&#xff0c;内存使用量大&#xff0c;在资源有限的设备上部署GAN非常困难。尽管最近压缩GAN的努力取得了显著的成果&#xff0c;但它…

BERT知识点总结

文章目录 为什么NLP网络中经常使用Adam优化器以及存在的问题NLP语言模型的特点Adam优化器的特点问题解决办法 BERT的基本原理BERT为什么要取消NSP任务为什么BERT比ELMo效果好&#xff1f;ELMo和BERT的区别是什么&#xff1f;为什么BERT比ELMo效果好ELMo和BERT的区别是什么 BERT…

【论文速递】CCDC2021 - 轻量级网络的结构化注意知识蒸馏

【论文速递】CCDC2021 - 轻量级网络的结构化注意知识蒸馏 【论文原文】&#xff1a;Structured Attention Knowledge Distillation for Lightweight Networks 获取地址&#xff1a;https://ieeexplore.ieee.org/stamp/stamp.jsp?tp&arnumber9601745 CSDN下载&#xff1a…

从Hinton开山之作开始,谈知识蒸馏的最新进展

作者 | 孟让 转载自知乎 导读&#xff1a;知识蒸馏是一种模型压缩常见方法&#xff0c;模型压缩指的是在teacher-student框架中&#xff0c;将复杂、学习能力强的网络学到的特征表示“知识”蒸馏出来&#xff0c;传递给参数量小、学习能力弱的网络。本文对17、18年知识蒸馏的最…

深度学习精度提升 3 个小妙招:模型集成、知识蒸馏、自蒸馏

本文转载自 AI公园。 作者&#xff1a;Zeyuan Allen-Zhu 编译&#xff1a;ronghuaiyang 导读 训练好的模型&#xff0c;用自己蒸馏一下&#xff0c;就能提高性能&#xff0c;是不是很神奇&#xff0c;这里面的原理到底是什么呢&#xff0c;这要从模型集成开始说起。 在现在的标…

AI关键组件 | 集成,知识蒸馏和蒸馏「AI核心算法」

关注&#xff1a;耕智能&#xff0c;深耕AI脱水干货 作者&#xff1a;Zeyuan Allen-Zhu 编译&#xff1a;ronghuaiyang 报道&#xff1a;AI公园 转载请联系作者 训练好的模型&#xff0c;用自己蒸馏一下&#xff0c;就能提高性能&#xff0c;是不是很神奇&#xff0c;这里面的…

深度学习中的3个秘密:集成,知识蒸馏和自蒸馏

点击上方“CVer”&#xff0c;选择加"星标"置顶 重磅干货&#xff0c;第一时间送达 本文转载自&#xff1a;AI公园 作者&#xff1a;Zeyuan Allen-Zhu | 编译&#xff1a;ronghuaiyang 导读 训练好的模型&#xff0c;用自己蒸馏一下&#xff0c;就能提高性能&#…

深度学习中的3个秘密:集成,知识蒸馏和蒸馏

点击上方“AI公园”&#xff0c;关注公众号&#xff0c;选择加“星标“或“置顶” 作者&#xff1a;Zeyuan Allen-Zhu 编译&#xff1a;ronghuaiyang 导读 训练好的模型&#xff0c;用自己蒸馏一下&#xff0c;就能提高性能&#xff0c;是不是很神奇&#xff0c;这里面的原理到…

【论文笔记_知识蒸馏_2022】Knowledge Distillation with the Reused Teacher Classifier

&#xff08;下文中的知识提炼即知识蒸馏&#xff09; 摘要 知识提炼的目的是将一个强大而繁琐的教师模型压缩到一个轻量级的学生模型中&#xff0c;而不至于牺牲很多性能。为此&#xff0c;在过去的几年里&#xff0c;人们提出了各种方法&#xff0c;一般都有精心设计的知识…

深度学习优化利器:集成、知识蒸馏和自蒸馏

为什么简单的「集成」便能够提升性能呢&#xff1f;本文是对上述问题的解析&#xff0c;作者解读了来自微软研究院高级研究员朱泽园博士&#xff0c;以及卡内基梅隆大学机器学习系助理教授李远志的最新论文《在深度学习中理解集成&#xff0c;知识蒸馏和自蒸馏》。 本文授权转自…