14.1 Resultados potenciales, efectos causales y experimentos idealizados

Ahora se recapitula brevemente la idea del efecto causal promedio y cómo se puede estimar usando el estimador de diferencias.

Resultados potenciales y efecto causal promedio

Un resultado potencial es el resultado de un individuo bajo un tratamiento potencial. Para este individuo, el efecto causal del tratamiento es la diferencia entre el resultado potencial si el individuo recibe el tratamiento y el resultado potencial si no lo recibe. Dado que este efecto causal puede ser diferente para diferentes individuos y no es posible medir el efecto causal para un solo individuo, uno está interesado en estudiar el efecto causal promedio del tratamiento, por lo que también se denomina efecto promedio del tratamiento.

En un experimento controlado aleatorio ideal se cumplen las siguientes condiciones:

  1. Los sujetos se seleccionan al azar de la población.
  2. Los sujetos se asignan aleatoriamente al grupo de tratamiento y control.

La condición 1. garantiza que los resultados potenciales de los sujetos se extraigan aleatoriamente de la misma distribución de modo que el valor esperado del efecto causal en la muestra sea igual al efecto causal promedio en la distribución. La condición 2. asegura que la recepción del tratamiento sea independiente de los posibles resultados de los sujetos. Si se cumplen ambas condiciones, el efecto causal esperado es el resultado esperado en el grupo de tratamiento menos el resultado esperado en el grupo de control. Usando expectativas condicionales se tiene \[\text{Efecto causal promedio} = E(Y_i\vert X_i=1) - E(Y_i\vert X_i=0),\] donde \(X_i\) es un indicador de tratamiento binario.

El efecto causal promedio se puede estimar usando el estimador de diferencias, que no es más que el estimador MCO en el modelo de regresión simple:

\[\begin{align} Y_i = \beta_0 + \beta_1 X_i + u_i \ \ , \ \ i=1,\dots,n, \tag{14.1} \end{align}\]

donde la asignación aleatoria asegura que \(E(u_i\vert X_i) = 0\).

El estimador MCO en el modelo de regresión:

\[\begin{align} Y_i = \beta_0 + \beta_1 X_i + \beta_2 W_{1i} + \dots + \beta_{1+r} W_{ri} + u_i \ \ , \ \ i=1,\dots,n \tag{14.2} \end{align}\]

con regresores adicionales \(W_1,\dots,W_r\) se denomina estimador de diferencias con regresores adicionales. Se supone que el tratamiento \(X_i\) se asigna aleatoriamente para que sea independiente de la característica previa al tratamiento \(W_i\). Esta suposición se llama independencia media condicional e implica \[E(u_i\vert X_i , W_i) = E(u_i\vert W_i) = 0,\] por lo que la expectativa condicional del error \(u_i\) dado el indicador de tratamiento \(X_i\) y la característica de pretratamiento \(W_i\) no depende de \(X_i\). La independencia media condicional reemplaza el primer supuesto de mínimos cuadrados en el Concepto clave 6.4 y, por lo tanto, asegura que el estimador de diferencias de \(\beta_1\) sea insesgado. El estimador de diferencias con regresores adicionales es más eficiente que el estimador de diferencias si los regresores adicionales explican parte de la variación en \(Y_i\).