representa la popularidad
subyacente del Partido Demócrata, o dicho de otro modo, la probabilidad
de que
Es importante destacar que la asignación aleatoria de
\(D_t\) es crucial. Porque sin ella, esta
ecuación reflejarĆa
\(\pi_1\) y la
selección (es decir, los distritos demócratas tienen puntos de felicidad
mÔs liberales). Asà que los autores intentan aleatorizar
\(D_t\) utilizando un RDD. Para efectuar la
asignacion aleatoria, los autores utilizan una variación posiblemente
exógena en las victorias demócratas para comprobar si la convergencia o
la divergencia son correctas. Si la convergencia es cierta, entonces los
republicanos y los demócratas que apenas ganaron deberĆan votar casi
idĆ©nticamente, mientras que si la divergencia es cierta, deberĆan votar
de forma diferente en los mĆ”rgenes de una carrera reƱida. āEn los
mĆ”rgenes de una carrera reƱidaā es crucial porque la idea es que es en
los mÔrgenes de una carrera reñida donde la distribución de las
preferencias de los votantes es practicamnerte, la misma. Si las
preferencias de los votantes son las mismas, pero las polĆticas divergen
en el lĆmite, esto sugiere que son los polĆticos, y no los votantes, los
que dirigen la elaboración de las polĆticas.
Pare replicar los resultados de los autores se utilizƔn regresiones
limitadas a la ventana alrededor del punto de corte para estimar el
efecto. Se trata de regresiones locales en el sentido de que utilizan
datos cercanos al punto de corte. Sólo se utilizan observaciones entre
0,48 y 0,52 votos. Por tanto, esta regresión estima el coeficiente en
torno al punto de corte.
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
31.196***
|
18.747***
|
0.242***
|
lagdemocrat
|
21.284***
|
|
0.484***
|
democrat
|
|
47.706***
|
|
Num.Obs.
|
915
|
915
|
915
|
R2
|
0.115
|
0.578
|
0.235
|
R2 Adj.
|
0.114
|
0.578
|
0.234
|
RMSE
|
29.49
|
20.36
|
0.44
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Cuando se utilizan todos los datos, obtenemos efectos algo diferentes.
El efecto sobre los resultados futuros del Americans for Democratic
Action (ADA) aumenta en 10 puntos, pero el efecto contemporƔneo
disminuye. Sin embargo, el efecto sobre la ocupación del cargo aumenta
considerablemente. AsĆ que aquĆ vemos que simplemente ejecutando la
regresión se obtienen estimaciones diferentes cuando incluimos datos
alejados del propio punto de corte.
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
23.539***
|
17.576***
|
0.120***
|
lagdemocrat
|
31.506***
|
|
0.818***
|
democrat
|
|
40.763***
|
|
Num.Obs.
|
13588
|
13588
|
13588
|
R2
|
0.227
|
0.376
|
0.676
|
R2 Adj.
|
0.227
|
0.376
|
0.676
|
RMSE
|
28.69
|
25.78
|
0.28
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Sin embargo, ninguna de estas regresiones incluye controles para la
running variable. Tampoco se utiliza el recentrado de la variable de
ejecución. Para incorporar estos dos puntos, simplemente restaremos 0,5
a la variable de funcionamiento, de forma que los valores de 0 sean
aquellos en los que el porcentaje de votos sea igual a 0,5, los valores
negativos sean los porcentajes de votos demócratas inferiores a 0,5 y
los valores positivos sean los porcentajes de votos demócratas
superiores a 0,5.
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
22.883***
|
11.034***
|
0.212***
|
lagdemocrat
|
33.451***
|
|
0.552***
|
demvoteshare_c
|
-5.626**
|
-48.938***
|
0.773***
|
democrat
|
|
58.502***
|
|
Num.Obs.
|
13577
|
13577
|
13577
|
R2
|
0.227
|
0.424
|
0.735
|
R2 Adj.
|
0.227
|
0.424
|
0.735
|
RMSE
|
28.68
|
24.76
|
0.25
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Es habitual permitir que la variable en curso varĆe a ambos lados de la
discontinuidad, Para implementarlo necesitamos que haya una lĆnea de
regresión a cada lado, lo que significa necesariamente que tenemos dos
lĆneas a la izquierda y a la derecha de la discontinuidad. Para ello,
necesitamos una interacción, especĆficamente, entre la variable de
ejecución con la variable de tratamiento.
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
31.435***
|
16.816***
|
0.287***
|
lagdemocrat
|
30.508***
|
|
0.526***
|
demvoteshare_c
|
66.042***
|
-5.683*
|
1.403***
|
lagdemocrat Ć demvoteshare_c
|
-96.475***
|
|
-0.849***
|
democrat
|
|
55.431***
|
|
democrat Ć demvoteshare_c
|
|
-55.152***
|
|
Num.Obs.
|
13577
|
13577
|
13577
|
R2
|
0.267
|
0.434
|
0.749
|
R2 Adj.
|
0.267
|
0.434
|
0.749
|
RMSE
|
27.94
|
24.54
|
0.25
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Por último, se estimarÔ el modelo con una cuadrÔtica. La inclusión de la
cuadrƔtica hace que el efecto estimado de una victoria democrƔtica sobre
el voto futuro disminuya considerablemente:
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
33.547***
|
15.606***
|
0.330***
|
lagdemocrat
|
13.030***
|
|
0.322***
|
demvoteshare_c
|
134.977***
|
-23.850***
|
2.798***
|
demvoteshare_sq
|
212.127***
|
-41.729**
|
4.294***
|
lagdemocrat Ć demvoteshare_c
|
57.055***
|
|
0.091
|
lagdemocrat Ć demvoteshare_sq
|
-641.851***
|
|
-8.804***
|
democrat
|
|
44.402***
|
|
democrat Ć demvoteshare_c
|
|
111.896***
|
|
democrat Ć demvoteshare_sq
|
|
-229.954***
|
|
Num.Obs.
|
13577
|
13577
|
13577
|
R2
|
0.371
|
0.456
|
0.822
|
R2 Adj.
|
0.370
|
0.456
|
0.822
|
RMSE
|
25.89
|
24.07
|
0.21
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Esto sugiere que existen fuertes valores atĆpicos en los datos que estĆ”n
causando que la distancia en
\(c_0\) se
extienda mÔs ampliamente. Asà que una solución natural es limitar de
nuevo nuestro anƔlisis a una ventana mƔs pequeƱa. Lo que esto hace es
descartar las observaciones alejadas de
\(c_0\) y omitir la influencia de los valores
atĆpicos de nuestra estimación en el punto de corte. Esta vez
utilizaremos +/- -0,05. Cuando limitamos nuestro anƔlisis a 0,05
alrededor del punto de corte, se utilizan mƔs observaciones lejos del
punto de corte que las que se utilizaron en nuestro anƔlisis inicial.
Por eso sólo tenemos 2.441 observaciones para el anÔlisis, frente a las
915 que tenĆamos en nuestro anĆ”lisis original.
|
Model 1
|
Model 2
|
Model 3
|
(Intercept)
|
37.121***
|
21.437***
|
0.418***
|
lagdemocrat
|
7.347***
|
|
0.167***
|
demvoteshare_c
|
830.925***
|
450.846**
|
15.699***
|
demvoteshare_sq
|
5333.335***
|
7878.904**
|
91.607***
|
lagdemocrat Ć demvoteshare_c
|
-156.876***
|
|
0.125
|
lagdemocrat Ć demvoteshare_sq
|
-10116.678***
|
|
-188.329***
|
democrat
|
|
45.191***
|
|
democrat Ć demvoteshare_c
|
|
-688.343**
|
|
democrat Ć demvoteshare_sq
|
|
-3887.820
|
|
Num.Obs.
|
2387
|
2387
|
2387
|
R2
|
0.445
|
0.563
|
0.774
|
R2 Adj.
|
0.444
|
0.562
|
0.774
|
RMSE
|
23.50
|
20.86
|
0.24
|
Std.Errors
|
by: id
|
by: id
|
by: id
|
Los mƩtodos no paramƩtricos significan muchas cosas diferentes para
distintas personas en estadĆstica, pero en contextos de RDD, la idea es
estimar un modelo que no asuma una forma funcional para la relación
entre la variable de resultado (Y) y la variable de ejecución (X). A
continuación se presentan grÔficamente distintas opciones de ajuste,
lineal, cuadrƔtico y lowess:


Hahn, Todd y Klaauw (2001) han demostrado que la estimación kernel
unilateral, como lowess, puede tener propiedades deficientes porque el
punto de interĆ©s se encuentra en el lĆmite (es decir, la
discontinuidad). Esto se llama el āproblema del lĆmiteā. Proponen
utilizar en su lugar regresiones lineales locales no paramƩtricas. En
estas regresiones, se da mƔs peso a las observaciones del centro.
También puede estimar regresiones polinómicas locales ponderadas por
kernel, una regresión ponderada restringida a una ventana como las que
se han realizado previamnete, donde el kernel elegido proporciona los
pesos.
Debido a que el supuesto de continuidad implica especĆficamente
funciones de expectativas condicionales continuas de los resultados
potenciales a lo largo de la lĆnea de corte, por lo tanto, no se puede
probar. Eso es correcto, es un supuesto no comprobable. Pero, lo que
podemos hacer es comprobar si hay cambios en las funciones de
expectativa condicional para otras covariables exógenas que no pueden o
no deben cambiar como resultado del corte. Luego, la importancia de la
selección del ancho de banda, o ventana, para estimar el efecto causal
utilizando este método, asà como la importancia de la selección de la
longitud del polinomio. A la hora de elegir el ancho de banda, siempre
hay un equilibrio entre el sesgo y la varianza: cuanto mƔs corta es la
ventana, menor es el sesgo, pero al tener menos datos, aumenta la
varianza de la estimación.
## Sharp RD estimates using local polynomial regression.
##
## Number of Obs. 13577
## BW type mserd
## Kernel Triangular
## VCE method NN
##
## Number of Obs. 5480 8097
## Eff. Number of Obs. 2112 1893
## Order est. (p) 1 1
## Order bias (q) 2 2
## BW est. (h) 0.086 0.086
## BW bias (b) 0.141 0.141
## rho (h/b) 0.609 0.609
## Unique Obs. 2770 3351
##
## =============================================================================
## Method Coef. Std. Err. z P>|z| [ 95% C.I. ]
## =============================================================================
## Conventional 46.491 1.241 37.477 0.000 [44.060 , 48.923]
## Robust - - 31.425 0.000 [43.293 , 49.052]
## =============================================================================
Lo ideal es utilizar este tipo de mƩtodos cuando se dispone de un gran
nĆŗmero de observaciones en la muestra, de forma que se tenga un nĆŗmero
considerable de observaciones en la discontinuidad. En ese caso, deberĆa
haber cierta armonĆa entre los resultados. Si no es asĆ, es posible que
no tenga suficiente potencia para detectar este efecto.
Por último, se examina la implementación de la prueba de densidad de
McCrary, utilizando la estimación de densidad polinómica local
(Cattaneo, Jansson y Ma 2019) y no se obtiene evidencia de que haya
habido manipulación en la variable de ejecución en el punto de corte.

## [1] 0.5925909

## $Estl
## Call: lpdensity
##
## Sample size 5480
## Polynomial order for point estimation (p=) 2
## Order of derivative estimated (v=) 1
## Polynomial order for confidence interval (q=) 3
## Kernel function triangular
## Scaling factor 0.40357984678845
## Bandwidth method user provided
##
## Use summary(...) to show estimates.
##
## $Estr
## Call: lpdensity
##
## Sample size 8097
## Polynomial order for point estimation (p=) 2
## Order of derivative estimated (v=) 1
## Polynomial order for confidence interval (q=) 3
## Kernel function triangular
## Scaling factor 0.596346493812611
## Bandwidth method user provided
##
## Use summary(...) to show estimates.
##
## $Estplot
