class: center, middle, inverse, title-slide .title[ # Econometría (II / Práctica) ] .subtitle[ ## Magíster en EconomíaTema 8: Panel Data ] .author[ ### Prof. Luis Chancí ] .date[ ###
www.luischanci.com
] --- layout:true <div style="position:absolute; left:60px; bottom:11px; font-size: 10pt; color:#DDDDDD;">Prof. Luis Chancí - Econometría (II / Práctica)</div> --- # Modelos para Datos en Panel ## Contenidos a revisar 1. Introducción 2. Regresión Agrupada - Pooled OLS 3. Efectos Fijos - Fixed Effects (FE) 4. Efectos Aleatorios - Random Effects (RE) 5. Comparación entre Efectos Fijos (FE) y Efectos Aleatorios (RE): Tests de Especificación 6. Dynamic Panels --- # 1. Introducción **Datos de Panel (o Datos Longitudinales):** * Combinan series de tiempo con datos de corte transversal. Se observan las mismas `\(N\)` unidades (individuos, empresas, países, etc.) a lo largo de `\(T\)` períodos de tiempo. * **Panel Balanceado:** Se observan todas las unidades en todos los períodos: `\(\{y_{it}, x_{it}\}\)`, para `\(i = 1, 2, ..., N\)` y `\(t = 1, 2, ..., T\)`. * **Panel Desbalanceado:** Algunas unidades no se observan en todos los períodos: `\(\{y_{it}, x_{it}\}\)`, para `\(i = 1, 2, ..., N\)` y `\(t = \underline{t}_i, ..., \bar{t}_i\)` (donde `\(1 \le \underline{t}_i \le \bar{t}_i \le T\)`). **Ejemplos:** * *Panel Study of Income Dynamics* (PSID, en EEUU). * *National Longitudinal Survey of Labor Market Experience* (NLS, en EEUU). * *European Community Household Panel* (ECHP, en Europa). * Chile: Encuesta Nacional Industrial Anual (ENIA, en Chile 1995-2007); Encuesta de Protección Social (EPS, en Chile); Encuesta CASEN (Caracterización Socioeconómica Nacional, en Chile). --- # 1. Introducción ## Ventajas y Desafíos de los Datos en Panel - **Ventajas:** * **Control de la Heterogeneidad No Observable:** Permiten controlar por características individuales no observadas que pueden estar correlacionadas con las variables explicativas, reduciendo el sesgo. * **Más Variabilidad y Grados de Libertad:** Al combinar la dimensión temporal y transversal, se incrementa la variabilidad de los datos y se aumentan los grados de libertad, mejorando la eficiencia de las estimaciones. * **Reducción de la Colinealidad:** La variación temporal y transversal ayuda a mitigar los problemas de colinealidad entre regresores. * **Estudio de la Dinámica de Ajuste:** Permiten analizar cómo las variables se ajustan a lo largo del tiempo en respuesta a cambios en otras variables. --- # 1. Introducción ## Ventajas y Desafíos de los Datos en Panel (cont.) - **Desafíos:** * **Complejidad en la Recopilación y Manejo de Datos:** Obtener datos de panel de alta calidad puede ser costoso y complejo. * **Atrition Bias (Sesgo de Deserción):** En paneles desbalanceados, la pérdida de observaciones a lo largo del tiempo puede generar sesgos si la deserción no es aleatoria. * **Potencial Endogeneidad:** Las variables explicativas ( `\(X_{it}\)` ) pueden estar correlacionadas con el término de error, causando inconsistencia en los estimadores. * **Dependencia Transversal:** Las unidades de corte transversal pueden estar correlacionadas entre sí, lo que debe ser considerado en la estimación. * **Errores de Medición:** Los errores en la medición de las variables pueden ser más problemáticos en datos de panel, especialmente si se correlacionan con las variables explicativas. --- # 1. Introducción ##Representación - Sea `\(y_{it}\)` el valor de la variable dependiente para la unidad `\(i\)` en el período `\(t\)`. - La especificación estándar incluye un efecto individual no observado ( `\(\alpha_i\)` ) que es constante en el tiempo: `$$y_{it}=\alpha_i+x_{it}'\beta+u_{it}\hspace{0.3cm},\hspace{0.3cm}\forall\,i=1,2,...,N\,\,;\,t=1,2,...T$$` donde: * `\(x_{it}\)` es un vector `\(k\times 1\)` de variables explicativas para la unidad `\(i\)` en el período `\(t\)`. * `\(u_{it}\)` es el término de error idiosincrático para la unidad `\(i\)` en el período `\(t\)`. * `\(\beta\)` es un vector `\(k\times 1\)` de parámetros a estimar. * `\(\alpha_i\)` es el efecto individual no observado (constante en el tiempo) para la unidad `\(i\)`. --- # 1. Introducción **Representación (cont.)** - El modelo se puede reescribir para cada individuo `\(i\)` como: `$$\underbrace{y_i}_{T\times1}=\alpha_i\cdot \underbrace{\iota_T}_{T \times 1} + \underbrace{x_i}_{T \times k}\beta+\underbrace{u_i}_{T \times 1}$$` donde `\(\iota_T\)` es un vector de unos de tamaño `\(T\times 1\)`. - apilando las observaciones a través de individuos, el modelo se puede escribir para cada período `\(t\)` como: `$$\underbrace{y_t}_{N\times1}=\underbrace{\alpha}_{N \times 1} + \underbrace{x_t}_{N \times k}\beta+\underbrace{u_t}_{N \times 1}$$` donde `\(\alpha\)` es un vector `\(N\times1\)` con los efectos individuales `\(\alpha_i\)`. - O de forma aún más compacta, `\(\underbrace{y}_{NT\times1} = \underbrace{D}_{NT \times N}\alpha + \underbrace{x}_{NT \times k}\beta+\underbrace{u}_{NT \times 1}\)` , o simplemente, `\(\begin{eqnarray*} y &=& (\alpha\otimes i_T) + x\beta+u \end{eqnarray*}\)`; donde `\(D\)` es una matriz de variables binarias ("dummies") que identifican a cada individuo. --- # 1. Introducción ## Organización General de la Literatura (Pesaran, M.H.) - **Enfoque de Micro Paneles ( `\(N\)` grande, `\(T\)` pequeño). ** Se centra en aplicaciones con un gran número de individuos (o unidades) y un número relativamente pequeño de períodos de tiempo. Es el enfoque más común en aplicaciones empíricas, especialmente en estudios que utilizan encuestas de hogares o empresas. Se suele asumir que las `\(X\)` son exógenas, aunque existen métodos para tratar la endogeneidad. Ej. Estudios de salarios, empleo, movilidad social, etc. - **Enfoque de Macro Paneles ( `\(N\)` pequeño, `\(T\)` grande).** Se enfoca en aplicaciones con un pequeño número de unidades (por ejemplo, países) y un gran número de períodos de tiempo. Este enfoque es similar al análisis de series de tiempo multivariadas (ej. SURE - *Seemingly Unrelated Regression Equations* de Zellner, 1962). Se presta especial atención a la dinámica y a la dependencia transversal entre las unidades. - **Enfoque de Paneles con `\(N\)` y `\(T\)` grandes.** Es un área de desarrollo reciente, impulsada por la creciente disponibilidad de datos longitudinales con un gran número de unidades y períodos de tiempo. Se están desarrollando nuevos métodos para abordar los desafíos específicos de este tipo de datos, como la alta dimensionalidad y la heterogeneidad. Ej. Estudios de crecimiento económico regional, análisis de grandes bases de datos de transacciones financieras, etc. --- class: inverse, middle, mline, center # 2. Regresión Agrupada - Pooled OLS --- # 2. Regresión Agrupada - Pooled OLS ## Supuestos y Estimación - Se asume que `\(\alpha_i = \alpha\)` para todo `\(i\)`. Es decir, se asume que no hay efectos individuales no observables, o que estos efectos son iguales para todas las unidades de corte transversal, por lo que el modelo se reduce a: `$$y_{it} = \alpha + x_{it}'\beta + u_{it}$$` donde `\(\alpha\)` es un intercepto común. - Bajo el supuesto de que `\(\alpha_i = \alpha\)`, se estima el modelo usando OLS, agrupando ("pooling") todas las observaciones (**Pooled OLS**). La estimación produce el estimador POLS: `$$\begin{eqnarray*} \hat{\beta}_{OLS}=\left(\sum_i\sum_t(x_{it}-\bar{x})(x_{it}-\bar{x})'\right)^{-1}\left(\sum_i\sum_t(x_{it}-\bar{x})(y_{it}-\bar{y})'\right)\end{eqnarray*}$$` donde `\(\bar{x}=(NT)^{-1}\sum_{i}\sum_{t}{x_{it}}\)`. --- # 2. Regresión Agrupada - Pooled OLS Se emplean supuesto que ya discutimos en OLS. Es decir, los **supuestos para consistencia (además de `\(\alpha_i=\alpha\)`)** son: 1. Exogeneidad Estricta: `\(\mathbb{E}(u_{it}|X) = 0\)`, donde `\(X\)` representa la matriz de todas las observaciones de las variables explicativas para todos los individuos y todos los períodos. Esto implica que el error no está correlacionado con las variables explicativas en ningún período de tiempo. 2. Identificación: La matriz `\(X'X = \sum_{i=1}^N \sum_{t=1}^T x_{it}x_{it}'\)` es invertible. Esto requiere que no haya multicolinealidad perfecta entre las variables explicativas. 3. Los errores `\(u_{it}\)` pueden presentar: * Heterocedasticidad: La varianza del error puede variar entre individuos: `\(\mathbb{E}(u_{it}^2|X) = \sigma_i^2\)`. * Autocorrelación Serial: Los errores del mismo individuo pueden estar correlacionados en el tiempo: `\(\mathbb{E}(u_{it}u_{is}|X) \neq 0\)` para `\(t \neq s\)`. * Dependencia Contemporánea: Los errores de diferentes individuos pueden estar correlacionados en el mismo período de tiempo: `\(\mathbb{E}(u_{it}u_{jt}|X) \neq 0\)` para `\(i \neq j\)`. **Nota:** Usualmente, en la literatura de micro-paneles se asume independencia entre las unidades de corte transversal, aunque esto se puede testear. --- # 2. Regresión Agrupada - Pooled OLS **Inferencia con Pooled OLS** - Varianza Asintótica: Si los errores son i.i.d. con varianza constante `\(\sigma^2\)`, entonces la inferencia estándar de MCO es válida. Sin embargo, si los errores presentan heterocedasticidad y/o autocorrelación, la inferencia estándar de MCO no es válida. En este caso, se deben usar errores estándar robustos. - Errores Estándar Robusto a Heterocedasticidad y Autocorrelación (HAC): Para inferencia en presencia de heterocedasticidad y/o autocorrelación, se pueden usar errores robustos (HAC), también conocidos como errores estándar de 'Clúster' cuando se agrupan por individuo. * La matriz de varianzas y covarianzas robusta para `\(\hat{\beta}_{POLS}\)` se estima como: `$$\hat{V}(\hat{\beta}_{POLS}) = \left( \sum_{i=1}^N \sum_{t=1}^T x_{it}x_{it}' \right)^{-1} \left( \sum_{i=1}^N \sum_{t=1}^T \sum_{s=1}^T x_{it} \hat{u}_{it} \hat{u}_{is} x_{is}' \right) \left( \sum_{i=1}^N \sum_{t=1}^T x_{it}x_{it}' \right)^{-1}$$` donde `\(\hat{u}_{it}\)` son los residuos de la regresión Pooled OLS. Esta matriz de varianzas y covarianzas es robusta a heterocedasticidad y autocorrelación de forma arbitraria al interior de cada individuo. --- # 2. Regresión Agrupada - Pooled OLS ## Limitaciones de Pooled OLS - **Sesgo por Heterogeneidad No Observada:** * Si el supuesto de `\(\alpha_i = \alpha\)` no se cumple (es decir, si existen efectos individuales no observados que son diferentes entre individuos), y estos efectos están correlacionados con las variables explicativas, entonces el estimador Pooled OLS será sesgado e inconsistente. * Esta es una de las principales motivaciones para usar modelos de efectos fijos o aleatorios en lugar de Pooled OLS. - **Ineficiencia:** * Incluso si `\(\alpha_i = \alpha\)`, si los errores presentan heterocedasticidad o autocorrelación, el estimador Pooled OLS no será el más eficiente. .content-box-blue[En síntesis, usar OLS con datos de panel implica asumir de forma implícita supuestos posiblemente más fuertes. Además, no se aprovecha la riqueza de los datos.] --- class: inverse, middle, mline, center # 3. Efectos Fijos - Fixed Effects --- # 3. Efectos Fijos - Fixed Effects **Supuestos del Modelo de Efectos Fijos:** * `\(\alpha_i\)` representa los efectos individuales no observados, que se asumen **constantes en el tiempo** para cada individuo `\(i\)`. * Se permite que `\(\alpha_i\)` esté correlacionado con las variables explicativas `\(x_{it}\)` (a diferencia del modelo de efectos aleatorios, que asume que no hay correlación). * Los `\(x_{it}\)` siguen siendo exógenas. Serán deterministicos y acotados, satisfaciendo: `\(\mathbb{E}||(x_{it}-\bar{x}_{i\cdot})(x_{jt'}-\bar{x}_{j\cdot})||<\kappa<\infty\)` * Los errores `\(u_{it}\)` son estocásticos e independientes de `\(x_{it}\)` para todos los períodos de tiempo. **Nota:** El modelo de efectos fijos asume que las diferencias entre individuos pueden capturarse mediante diferencias en el término constante. --- # 3. Efectos Fijos - Fixed Effects ## Estimación por Efectos Fijos (FE) - **Idea General:** La estimación de Efectos Fijos (FE) elimina los efectos individuales no observados ( `\(\alpha_i\)` ) mediante una transformación de los datos, y luego estima `\(\beta\)` usando las variables transformadas. - **Estimador *Within*:** También se conoce como estimador *within* (o *intra-grupo*) porque utiliza la variación dentro de cada grupo (individuo) para estimar los parámetros. - **Transformación *Within.* ** Primero se calcula la media temporal de cada variable para cada individuo `\(\bar{y}_{i\cdot} = \frac{1}{T} \sum_{t=1}^T y_{it}\)`, `\(\bar{x}_{i\cdot} = \frac{1}{T} \sum_{t=1}^T x_{it}\)`, `\(\bar{u}_{i\cdot} = \frac{1}{T} \sum_{t=1}^T u_{it}\)`. Segundo, se resta la media temporal de cada variable a la variable original, para cada individuo `\(i\)` y período `\(t\)`: `$$y_{it}-\bar{y}_{i\bullet}=(x_{it}-\bar{x}_{i\bullet})'\beta+(u_{it}-\bar{u}_{i\bullet})$$` Esta transformación elimina `\(\alpha_i\)` porque `\(\bar{\alpha}_{i\cdot} = \frac{1}{T}\sum_{t=1}^T \alpha_i = \alpha_i\)`, y por ende, `\(\alpha_i - \bar{\alpha}_{i\cdot} = 0\)`. Las variables transformadas `\((y_{it} - \bar{y}_{i\cdot})\)`, `\((x_{it} - \bar{x}_{i\cdot})\)`, y `\((u_{it} - \bar{u}_{i\cdot})\)` se denominan variables *demeaned* (centradas). --- # 3. Efectos Fijos - Fixed Effects ## Estimación por Efectos Fijos (FE) (cont.) **Estimación por MCO:** * Una vez que las variables han sido transformadas, se puede estimar `\(\beta\)` usando Mínimos Cuadrados Ordinarios (MCO) sobre las variables *demeaned*. * El estimador de efectos fijos ( `\(\hat{\beta}_{FE}\)` ) se obtiene como: `$$\hat{\beta}_{FE} = \left(\sum_{i=1}^N \sum_{t=1}^T (x_{it}-\bar{x}_{i\cdot})(x_{it}-\bar{x}_{i\cdot})'\right)^{-1} \left(\sum_{i=1}^N \sum_{t=1}^T (x_{it}-\bar{x}_{i\cdot})(y_{it}-\bar{y}_{i\cdot})\right)$$` **Recuperación de los Efectos Fijos.** Si se desea, se pueden recuperar los efectos fijos estimados ( `\(\hat{\alpha}_i\)` ) después de estimar `\(\beta\)`: `\(\hat{\alpha}_i = \bar{y}_{i\cdot} - \bar{x}_{i\cdot}'\hat{\beta}_{FE}\)`. Sin embargo, los `\(\hat{\alpha}_i\)` generalmente no son de interés principal y no se estiman de manera consistente con `\(T\)` fijo. --- # 3. Efectos Fijos - Fixed Effects ## Representación Matricial del Estimador FE **Matriz de Centrado (*Within*):** * La transformación *within* se puede expresar en forma matricial usando la matriz `\(M_T = I_T - \frac{1}{T}\iota_T\iota_T'\)`, donde `\(I_T\)` es la matriz identidad de tamaño `\(T \times T\)` e `\(\iota_T\)` es un vector de unos de tamaño `\(T \times 1\)`. * `\(M_T\)` es una matriz simétrica e idempotente ( `\(M_T = M_T'\)` y `\(M_T M_T = M_T\)` ). * Cuando se multiplica una variable por `\(M_T\)`, se obtiene la variable *demeaned* (centrada respecto a su media temporal). **Aplicación de `\(M_T\)`.** Para cada individuo `\(i\)`, se tiene que: `\(M_T y_i = y_i - \iota_T \bar{y}_{i\cdot}\)`; `\(M_T x_i = x_i - \iota_T \bar{x}_{i\cdot}\)`; `\(M_T u_i = u_i - \iota_T \bar{u}_{i\cdot}\)`; `\(M_T \iota_T \alpha_i = \iota_T \alpha_i - \iota_T \bar{\alpha}_{i\cdot} = 0\)`. Por lo tanto, la ecuación del modelo para el individuo `\(i\)` se transforma en: `$$M_T y_i = M_T x_i \beta + M_T u_i$$` **Estimador FE en Forma Matricial.** El estimador FE se puede expresar como: `$$\hat{\beta}_{FE} = \left( \sum_{i=1}^N x_i' M_T x_i \right)^{-1} \left( \sum_{i=1}^N x_i' M_T y_i \right)$$` --- # 3. Efectos Fijos - Fixed Effects ## Estimador FE: Insesgadez **Expresión del Estimador FE.** Reescribiendo el estimador FE en términos del verdadero `\(\beta\)`: `$$\hat{\beta}_{FE} = \beta + \left( \sum_{i=1}^N x_i' M_T x_i \right)^{-1} \left( \sum_{i=1}^N x_i' M_T u_i \right) = \beta + Q_{FE,NT}^{-1} \left( \frac{1}{NT} \sum_{i=1}^N x_i' M_T u_i \right)$$` donde `\(Q_{FE,NT} = \frac{1}{NT} \sum_{i=1}^N x_i' M_T x_i\)`. **Insesgadez Condicional:** Bajo los supuestos del modelo de efectos fijos, el estimador FE es condicionalmente insesgado: `$$\mathbb{E}[\hat{\beta}_{FE} | X] = \beta$$` --- # 3. Efectos Fijos - Fixed Effects ## Estimador FE: Consistencia **Condiciones para Consistencia:** * `\(T\)` fijo, `\(N \to \infty\)`: El estimador FE es consistente bajo los supuestos de que las variables explicativas son exógenas ( `\(x_{it}\)` ), tienen varianza finita ( `\(||x_{it}||\)` acotado), y `\(Q_{FE,NT}\)` es definida positiva. Adicionalmente, se asume que los errores son independientes entre individuos. * `\((T, N) \to \infty\)` (ambos `\(T\)` y `\(N\)` tienden a infinito): Una condición suficiente para la consistencia es que `\(\frac{1}{N^2 T^2} \sum_{i=1}^N \sum_{t=1}^T \sum_{s=1}^T \mathbb{E}[u_{it} u_{is}] \to 0\)`. Esta condición se cumple si los errores tienen media cero y varianza acotada, incluso si presentan autocorrelación. * `\(N\)` fijo, `\(T \to \infty\)`: En este caso, la consistencia del estimador FE requiere condiciones de ergodicidad similares a las de series de tiempo. Una condición suficiente es que la matriz de covarianzas de los errores para cada individuo, `\(\Gamma_i = (\gamma_i(t,s))_{T \times T}\)`, tenga una norma de suma de filas (o columnas) acotada. **Convergencia en Probabilidad.** Bajo las condiciones mencionadas, el estimador FE converge en probabilidad al verdadero valor de `\(\beta\)`: `$$\hat{\beta}_{FE} \xrightarrow{p} \beta$$` --- # 3. Efectos Fijos - Fixed Effects **Varianza Condicional:** La varianza condicional del estimador FE, dado `\(X\)`, es `$$Var(\hat{\beta}_{FE} | X) = \left( \sum_{i=1}^N x_i' M_T x_i \right)^{-1} \left( \sum_{i=1}^N x_i' M_T \mathbb{E}[u_i u_i' | X] M_T x_i \right) \left( \sum_{i=1}^N x_i' M_T x_i \right)^{-1}$$` - Si `\(\mathbb{E}[u_i u_i' | X] = \sigma^2_u I_T\)`, entonces la expresión se simplifica a: `$$Var(\hat{\beta}_{FE} | X) = \sigma^2_u \left( \sum_{i=1}^N x_i' M_T x_i \right)^{-1} = \sigma^2_u Q_{FE,NT}^{-1}$$` - Alternativamente, bajo lo supuestos del modelo, `$$Var(\hat{\beta}_{FE}|X)=(NT)^{-1}Q^{-1}_{FE,NT}\cdot V_{FE,NT} \cdot Q^{-1}_{FE,NT}$$` donde, `$$\begin{eqnarray*} V_{FE,NT} = \frac{1}{NT}\sum_{i}{\left(x_{i\bullet}'M_T\Gamma_iM_Tx_{i\bullet}\right)} = \frac{1}{NT}\sum_{i,t}{\sigma^2_i(x_{it}-\bar{x}_{i\bullet})(x_{it}-\bar{x}_{i\bullet})'} + \frac{1}{NT}\sum_{i,t\neq t'}{\gamma_i(t,t')(x_{it}-\bar{x}_{i\bullet})(x_{it}-\bar{x}_{i\bullet})'} \end{eqnarray*}$$` --- # 3. Efectos Fijos - Fixed Effects ## Estimador FE: Distribución Asintótica - **Supuesto de Normalidad:** Si los errores `\(u_{it}\)` se distribuyen normalmente, y bajo los supuestos del modelo de efectos fijos, entonces la distribución asintótica del estimador FE (para `\(N\)` grande y/o `\(T\)` grande) es `$$\sqrt{NT}(\hat{\beta}_{FE} - \beta) \sim \mathcal{N}(0, \Omega_{FE})$$` donde `\(\Omega_{FE} = Q_{FE}^{-1} V_{FE} Q_{FE}^{-1}\)`, `\(Q_{FE} = \text{plim} \frac{1}{NT} \sum_{i=1}^N x_i' M_T x_i\)`, y `\(V_{FE} = \text{plim} \frac{1}{NT} \sum_{i=1}^N x_i' M_T \mathbb{E}[u_i u_i' | X] M_T x_i\)`. - **Caso Especial: `\(T\)` fijo y `\(N \to \infty\)`:** Bajo este escenario, la distribución asintótica del estimador FE es `$$\sqrt{N}(\hat{\beta}_{FE} - \beta) \xrightarrow{d} \mathcal{N}(0, \Omega_{FE,T})$$` donde `\(\Omega_{FE,T} = Q_{FE,T}^{-1} V_{FE,T} Q_{FE,T}^{-1}\)`, `\(Q_{FE,T} = \text{plim} \frac{1}{N} \sum_{i=1}^N x_i' \frac{M_T}{T} x_i\)`, y `\(V_{FE,T} = \text{plim} \frac{1}{N} \sum_{i=1}^N x_i' \frac{M_T \mathbb{E}[u_i u_i' | X] M_T}{T} x_i\)`. --- # 3. Efectos Fijos - Fixed Effects ## Estimador FE y Estimador LSDV (Least Squares Dummy Variable) **LSDV** es un método alternativo para implementar el estimador de efectos fijos (FE). En lugar de realizar la transformación _within_, LSDV introduce variables dummy para cada individuo (excepto uno que sirve como referencia) en el modelo. El estimador LSDV de `\(\beta\)` es numéricamente idéntico al estimador FE ( `\(\hat{\beta}_{FE}\)` ). Ambos métodos eliminan los efectos fijos para estimar el efecto de las variables explicativas sobre `\(y\)`. Aunque LSDV estima directamente los efectos individuales como coeficientes de las variables dummy, estos generalmente no son el foco principal del análisis ( _nuisance parameters_ ). El interés principal está en la estimación consistente de los parámetros `\(\beta\)`. Además, ni el estimador FE ni LSDV producen estimadores consistentes de los efectos individuales cuando el número de períodos es fijo. Sin embargo, se prefiere el estimador FE por su eficiencia computacional y por no malgastar grados de libertad. --- # 3. Efectos Fijos - Fixed Effects ## Estimador LSDV (Least Squares Dummy Variable) El modelo `\(y_{it}=\alpha_i+x_{it}'\beta+u_{it}\)` podemos representarlo mediante la incorporación de variables dummy: `$$\begin{eqnarray*} \left(\begin{array}{c} y_1 \\ y_2 \\ \vdots \\y_i \\ \vdots \\y_N \end{array}\right) = \alpha_1 \left(\begin{array}{c} i_T \\ 0_{T\times1} \\ \vdots \\0 \\ \vdots \\0 \end{array}\right) + \alpha_2 \left(\begin{array}{c} 0_{T\times1} \\ i_T \\ \vdots \\0 \\ \vdots \\0 \end{array}\right) + \ldots + \alpha_N \left(\begin{array}{c} 0_{T\times1} \\ 0_{T\times1} \\ \vdots \\0_{T\times1} \\ \vdots \\i_T \end{array}\right) + x\beta + u \end{eqnarray*}$$` ó, de forma compacta, es `$$y = \sum_{i=1}^N \alpha_i d_i + x \beta + u$$` Es decir, LSDV incorporar variables dummy para los effectos fijos, y luego estimar el modelo por MCO para obenter un estimador de `\(\beta\)` (no se hace transformación _within_ ). Como mencioné, el resultado obtenido será igual al estimador `\(\hat{\beta}_{FE}\)`. --- # 3. Efectos Fijos - Fixed Effects **Desventajas de LSDV:** * Pérdida de Grados de Libertad: LSDV estima `\(N\)` parámetros adicionales ( `\(\alpha_i\)` ), lo que reduce los grados de libertad, especialmente cuando `\(N\)` es grande en relación con `\(T\)`. * Ineficiencia Computacional: Estimar un modelo con una gran cantidad de variables dummy puede ser computacionalmente costoso. * Sesgo en los Errores Estándar: Los errores estándar de los coeficientes de las variables dummy en LSDV están sesgados a la baja bajo los supuestos de efectos fijos. **Recomendación:** * En general, se prefiere el estimador FE al LSDV debido a su mayor eficiencia computacional y a que no malgasta grados de libertad. * Los efectos individuales ( `\(\alpha_i\)` ) generalmente no son de interés principal ( _nuisance parameters_ ) y no se estiman de manera consistente con `\(T\)` fijo. * Si se necesitan estimar los efectos individuales, se pueden obtener con `\(\hat{\alpha}_i = \bar{y}_{i\cdot} - \bar{x}_{i\cdot}'\hat{\beta}_{FE}\)` después de la estimación FE. * Es crucial usar errores estándar robustos (HAC) con el estimador FE, especialmente cuando `\(T\)` es pequeño o cuando hay sospechas de heterocedasticidad o autocorrelación. --- # 3. Efectos Fijos - Fixed Effects ## Múltiples Efectos Fijos En muchas aplicaciones, se desea controlar por más de un efecto fijo. Por ejemplo, en un estudio sobre salarios, podríamos querer controlar por efectos individuales y por efectos temporales (como shocks macroeconómicos que afectan a todos los individuos). Este es el caso de **efectos fijos de dos vías** (*two-way fixed effects*). ### Two-way Fixed Effects (Efectos Fijos de Dos Vías) Se tienen dos conjuntos de efectos fijos: uno asociado a la unidad `\(i\)` ( `\(\alpha_i\)` ) y otro asociado al tiempo `\(t\)` ( `\(\mu_t\)` ). El modelo se especifica como: `$$y_{it} = \alpha_i + \mu_t + x_{it}'\beta + u_{it}$$` donde `\(y_{it}\)` es la variable dependiente para la unidad `\(i\)` en el tiempo `\(t\)`; `\(x_{it}\)` es el vector de variables explicativas; `\(\alpha_i\)` es el efecto fijo individual; `\(\mu_t\)` es el efecto fijo temporal; `\(\beta\)` es el vector de coeficientes a estimar; `\(u_{it}\)` es el término de error. --- # 3. Efectos Fijos - Fixed Effects **Representación Matricial:** El modelo se puede expresar de forma matricial como: `$$y = D_1 \alpha + D_2 \mu + x \beta + u$$` donde `\(y\)` es un vector `\(NT \times 1\)` con las observaciones de la variable dependiente; `\(D_1\)` es una matriz `\(NT \times N\)` de variables dummy para los efectos individuales ( `\(\alpha\)` ); `\(D_2\)` es una matriz `\(NT \times T\)` de variables dummy para los efectos temporales ( `\(\mu\)` ); `\(\alpha\)` es un vector `\(N \times 1\)` con los efectos individuales; `\(\mu\)` es un vector `\(T \times 1\)` con los efectos temporales; `\(x\)` es una matriz `\(NT \times k\)` con las variables explicativas; `\(\beta\)` es un vector `\(k \times 1\)` de coeficientes; `\(u\)` es un vector `\(NT \times 1\)` de errores. Equivalentemente, `$$y=(\alpha\otimes \iota_T)+(\iota_N\otimes\mu) + x\beta+u$$` --- # 3. Efectos Fijos - Fixed Effects ## Estimación con Dos Efectos Fijos **Transformación para Eliminar los Efectos Fijos:** Similar al caso de un solo efecto fijo, se busca una transformación que elimine ambos efectos fijos ( `\(\alpha_i\)` y `\(\mu_t\)` ). Sea `$$P_1 = D_1(D_1'D_1)^{-1}D_1' = I_N \otimes \frac{1}{T}\iota_T \iota_T' = I_N \otimes P_T$$` `$$P_2 = D_2(D_2'D_2)^{-1}D_2' = \frac{1}{N}\iota_N \iota_N' \otimes I_T = P_N \otimes I_T$$` `\(P_1\)` promedia las observaciones a través del tiempo para cada individuo, `\(P_1 \iota_N \otimes \iota_T = \iota_N \otimes \iota_T = P_2 \iota_N \otimes \iota_T\)`; `\(P_2\)` promedia las observaciones a través de los individuos para cada período de tiempo. Sea la matriz de transformación: `$$Q = I_{NT} - P_1 - P_2 + \frac{1}{NT} \iota_{NT} \iota_{NT}' = I_N \otimes I_T - I_N \otimes P_T - P_N \otimes I_T + P_N \otimes P_T$$` Notas: `\(Q\)` es simétrica e idempotente ( `\(Q = Q'\)` y `\(QQ = Q\)` ); `\(Q\)` elimina ambos efectos fijos, `\(Q D_1 = 0\)` y `\(Q D_2 = 0\)` (equivalentemente, `\(Q(\alpha\otimes \iota_T)=0\)`, `\(Q(\iota_N\otimes\mu)=0\)`); La demostración de que `\(Q D_1 = 0\)` (y su equivalente) es directa. --- # 3. Efectos Fijos - Fixed Effects ## Estimación con Dos Efectos Fijos **Modelo Transformado. ** Al pre-multiplicar el modelo original por `\(Q\)`, se obtiene: `$$Qy = QX\beta + Qu$$` `$$y^* = x^* \beta + u^*$$` donde `\(y^* = Qy\)`, `\(x^* = Qx\)`, y `\(u^* = Qu\)`. **Estimación por MCO.** Se puede estimar `\(\beta\)` usando MCO en el modelo transformado: `$$\hat{\beta}_{FE} = (x^{*'} x^*)^{-1}(x^{*'} y^*) = \left( \sum_{i=1}^N \sum_{t=1}^T x_{it}^* x_{it}^{*'} \right)^{-1} \left( \sum_{i=1}^N \sum_{t=1}^T x_{it}^* y_{it}^* \right)$$` --- # 3. Efectos Fijos - Fixed Effects ## Efectos Fijos de Alta Dimensión (High Dimensional Fixed Effects - HDFE) **Ejemplo:** Consideremos datos de salarios con efectos fijos para individuos ( `\(i\)` ), tiempo ( `\(t\)` ), e industria ( `\(k\)` ): | i | t | Industria | y (salario) | x (escolaridad) | | --- | --- | --------- | ----------- | --------------- | | 1 | 1 | 1 | 100 | 10 | | 1 | 2 | 1 | 105 | 10 | | 2 | 1 | 1 | 80 | 5 | | 2 | 2 | 2 | 50 | 5 | **Representación con Variables Dummy:** | i=1 | i=2 | t=1 | t=2 | Ind=1 | Ind=2 | y (salario) | x (escolaridad) | | --- | --- | --- | --- | ----- | ----- | ----------- | --------------- | | 1 | 0 | 1 | 0 | 1 | 0 | 100 | 10 | | 1 | 0 | 0 | 1 | 1 | 0 | 105 | 10 | | 0 | 1 | 1 | 0 | 1 | 0 | 80 | 5 | | 0 | 1 | 0 | 1 | 0 | 1 | 50 | 5 | --- # 3. Efectos Fijos - Fixed Effects ## Efectos Fijos de Alta Dimensión (High Dimensional Fixed Effects - HDFE) **Desafíos:** Si el número de categorías en los efectos fijos es muy grande, la estimación por MCO con variables dummy puede ser computacionalmente intensiva o incluso inviable. Además, la matriz `\(D\)` que contiene todas las variables dummy puede ser muy grande y dispersa, lo que dificulta su almacenamiento y manipulación. **Alternativas.** Existen algoritmos especializados para estimar modelos con HDFE de manera eficiente, sin necesidad de crear explícitamente la matriz de variables dummy. Estos algoritmos se basan en transformaciones que eliminan los efectos fijos, similares a la transformación *within* en el caso de un solo efecto fijo. Ejemplos de software que implementan estos algoritmos: - `reghdfe` en Stata (Sergio Correia). El comando `reghdfe` en Stata utiliza un método basado en la teoría de grafos espectrales ("spectral graph theory") para absorber los efectos fijos de alta dimensión de forma eficiente. Permite estimar modelos con múltiples efectos fijos, errores estándar robustos (incluyendo clustering), y diferentes opciones de especificación. - `fixest` en R (Laurent Berge). - `FixedEffectModels.jl` en Julia ( Matthieu Gomez). --- class: inverse, middle, mline, center # 4. Efectos Aleatorios - Random Effects (RE) --- # 4. Efectos Aleatorios - Random Effects (RE) **Introducción:** * En el modelo de efectos aleatorios, a diferencia del modelo de efectos fijos, se asume que los efectos individuales no observados ( `\(\alpha_i\)` ) son **variables aleatorias** que se distribuyen independientemente de las variables explicativas. * Los `\(\alpha_i\)` se tratan como parte del término de error, en lugar de como parámetros a ser estimados. **Supuestos:** * Los efectos individuales `\(\alpha_i\)` son variables aleatorias i.i.d. con media cero y varianza `\(\sigma_\alpha^2\)`: `\(\mathbb{E}[\alpha_i] = 0\)`, `\(\mathbb{E}[\alpha_i^2] = \sigma_\alpha^2\)`. * Los efectos individuales son no correlacionados con las variables explicativas en todos los periodos de tiempo: `\(\mathbb{E}[\alpha_i | x_{i1}, x_{i2}, ..., x_{iT}] = \mathbb{E}[\alpha_i | x_{i\cdot}] = 0\)` * El error idiosincrático `\(u_{it}\)` es independiente de las variables explicativas y de los efectos individuales en todos los periodos de tiempo, y se distribuye independientemente entre individuos con media cero y varianza constante: `\(\mathbb{E}[u_{it} | x_{i\cdot}, \alpha_i] = 0\)`, `\(\mathbb{E}[u_i u_i' | x_{i\cdot}, \alpha_i] = \mathbb{E}[u_i u_i'] = \sigma_u^2 I_T\)` * Las variables explicativas `\(x_{it}\)` son exógenas. --- # 4. Efectos Aleatorios - Random Effects (RE) **Estructura del Componente de Error.** En el modelo de efectos aleatorios, el término de error se compone de dos partes: el efecto individual no observado ( `\(\alpha_i\)` ) y el error idiosincrático ( `\(u_{it}\)` ): `$$\nu_{it} = \alpha_i + u_{it}$$` La varianza de `\(\nu_{it}\)` es: `$$\mathbb{E}[\nu_{it}^2] = \mathbb{E}[\alpha_i^2] + \mathbb{E}[u_{it}^2] + 2\mathbb{E}[\alpha_i u_{it}] = \sigma_\alpha^2 + \sigma_u^2$$` La covarianza entre los errores de un mismo individuo en diferentes períodos de tiempo es: `$$\mathbb{E}[\nu_{it} \nu_{is}] = \mathbb{E}[(\alpha_i + u_{it})(\alpha_i + u_{is})] = \mathbb{E}[\alpha_i^2] + \mathbb{E}[u_{it}\alpha_i] + \mathbb{E}[u_{is}\alpha_i] + \mathbb{E}[u_{it}u_{is}] = \sigma_\alpha^2$$` para `\(t \neq s\)`. --- # 4. Efectos Aleatorios - Random Effects (RE) **Matriz de Covarianzas del Componente de Error:** La matriz de covarianzas del vector de errores compuestos `\(\nu_i = (\nu_{i1}, \nu_{i2}, ..., \nu_{iT})'\)` para un individuo `\(i\)` es: `$$\Sigma_\nu = \mathbb{E}[\nu_i \nu_i'] = \sigma_u^2 I_T + \sigma_\alpha^2 \iota_T \iota_T' = \begin{bmatrix} \sigma_u^2 + \sigma_\alpha^2 & \sigma_\alpha^2 & \cdots & \sigma_\alpha^2 \\ \sigma_\alpha^2 & \sigma_u^2 + \sigma_\alpha^2 & \cdots & \sigma_\alpha^2 \\ \vdots & \vdots & \ddots & \vdots \\ \sigma_\alpha^2 & \sigma_\alpha^2 & \cdots & \sigma_u^2 + \sigma_\alpha^2 \end{bmatrix}$$` Esta matriz también se puede expresar como: `$$\Sigma_\nu = (\sigma^2_\alpha + \sigma^2_u) \left[\begin{array}{cccc} 1 & \rho & \ldots & \rho \\ \rho & 1 & \ldots & \rho \\ \vdots & \vdots & \ddots & \vdots \\ \rho & \rho & \ldots & 1 \\ \end{array}\right]$$` donde `\(\rho = \frac{\sigma_\alpha^2}{\sigma_\alpha^2 + \sigma_u^2}\)` es la proporción de la varianza total del error que se debe al efecto individual. --- # 4. Efectos Aleatorios - Random Effects (RE) ## Estimación por Mínimos Cuadrados Generalizados (GLS) Debido a la estructura de la matriz de covarianzas del error compuesto, MCO no es el estimador más eficiente. El estimador de Mínimos Cuadrados Generalizados (GLS) es más eficiente porque tiene en cuenta la estructura de correlación de los errores. El estimador GLS (o de Efectos Aleatorios) para `\(\beta\)` es: `$$\hat{\beta}_{RE} = \left( \sum_{i=1}^N x_i' \Sigma_\nu^{-1} x_i \right)^{-1} \left( \sum_{i=1}^N x_i' \Sigma_\nu^{-1} y_i \right)$$` **Varianza del Estimador RE. ** Bajo el supuesto de que `\(\frac{1}{NT} \sum_{i=1}^N x_i' \Sigma_\nu^{-1} x_i\)` es no singular, la varianza del estimador RE se puede calcular como: `$$Var(\hat{\beta}_{RE}) = \left( \sum_{i=1}^N x_i' \Sigma_\nu^{-1} x_i \right)^{-1}$$` --- # 4. Efectos Aleatorios - Random Effects (RE) ## Estimación con `\(\sigma_\alpha^2\)` y `\(\sigma_u^2\)` desconocidos (FGLS) - Estimación en Dos Pasos **Primero,** estimar `\(\sigma_u^2\)` y `\(\sigma_\alpha^2\)`. Ej. usar el estimador *within* (FE) para obtener una estimación consistente de `\(\sigma_u^2\)`: `$$\hat{\sigma}_u^2 = \frac{1}{N(T-1) - k} \sum_{i=1}^N \sum_{t=1}^T (y_{it} - \bar{y}_{i\cdot} - (x_{it} - \bar{x}_{i\cdot})'\hat{\beta}_{FE})^2 = \frac{1}{N(T-1) - k} \sum_{i=1}^N \hat{u}_i' M_T \hat{u}_i$$` donde `\(\hat{u}_i = y_i - x_i \hat{\beta}_{FE}\)` y `\(k\)` es el número de variables explicativas. Además, una estimación de `\(\sigma_\alpha^2\)` se puede obtener a partir de la varianza entre individuos de los residuos de una regresión Pooled OLS `$$\hat{\sigma}_\alpha^2 = \frac{1}{N-k-1} \sum_{i=1}^N (\hat{\nu}_{i\cdot} - \bar{\hat{\nu}})^2 - \frac{1}{T} \hat{\sigma}_u^2$$` donde `\(\hat{\nu}_{i\cdot} = \frac{1}{T} \sum_{t=1}^T (y_{it} - x_{it}' \hat{\beta}_{POLS}) = \bar{y}_{i\cdot} - \bar{x}_{i\cdot}' \hat{\beta}_{POLS}\)` y `\(\bar{\hat{\nu}} = \frac{1}{N} \sum_{i=1}^N \hat{\nu}_{i\cdot}\)`. Como alternativa, se puede estimar `\(\sigma_\alpha^2\)` a partir de la varianza muestral de los efectos fijos estimados `\(\hat{\alpha}_i\)` (obtenidos, por ejemplo, con el estimador *within*): `\(\tilde{\sigma}_\alpha^2 = \frac{1}{N-1} \sum_{i=1}^N (\hat{\alpha}_i - \bar{\hat{\alpha}})^2\)`, donde `\(\bar{\hat{\alpha}} = \frac{1}{N} \sum_{i=1}^N \hat{\alpha}_i\)`. Esta estimación evita el problema de que `\(\hat{\sigma}_\alpha^2\)` pueda ser negativo, especialmente cuando `\(T\)` es pequeño. --- # 4. Efectos Aleatorios - Random Effects (RE) ## Estimación con `\(\sigma_\alpha^2\)` y `\(\sigma_u^2\)` desconocidos (FGLS) - Estimación en Dos Pasos **Segundo,** estimar `\(\beta\)` por GLS Factible (FGLS). Usando las estimaciones `\(\hat{\sigma}_u^2\)` y `\(\hat{\sigma}_\alpha^2\)` (o `\(\tilde{\sigma}_\alpha^2\)`), construir la matriz de covarianzas estimada `\(\hat{\Sigma}_\nu\)`. Luego, reemplazar `\(\Sigma_\nu\)` por `\(\hat{\Sigma}_\nu\)` en la fórmula del estimador GLS para obtener el estimador FGLS: `$$\hat{\beta}_{FGLS} = \left( \sum_{i=1}^N x_i' \hat{\Sigma}_\nu^{-1} x_i \right)^{-1} \left( \sum_{i=1}^N x_i' \hat{\Sigma}_\nu^{-1} y_i \right)$$` **Propiedades de FGLS.** Bajo condiciones de regularidad, el estimador FGLS tiene las mismas propiedades asintóticas que el estimador GLS (con `\(\sigma_u^2\)` y `\(\sigma_\alpha^2\)` conocidos). En particular, es asintóticamente eficiente. --- class: inverse, middle, mline, center # 5. Comparación entre Efectos Fijos y Efectos Aleatorios **Tests de Especificación** --- # 5. FE y RE: Tests de Especificación Aunque actualmente en muchas aplicaciones empíricas tiende a ser clara la motivación para incluir/usar efectos fijos, en contextos más 'tradicionales' de panel emerge la pregunta de si se debe utilizar un modelo de efectos fijos (FE) o de efectos aleatorios (RE). En dicho caso, la elección entre FE y RE depende fundamentalmente de si los efectos individuales no observados ( `\(\alpha_i\)` ) están correlacionados o no con las variables explicativas ( `\(x_{it}\)` ). * **FE:** Es consistente cuando `\(\alpha_i\)` está correlacionado con `\(x_{it}\)`, pero puede ser ineficiente si la correlación es cero. * **RE:** Es más eficiente que FE cuando `\(\alpha_i\)` no está correlacionado con `\(x_{it}\)`, pero es inconsistente si existe correlación. Para evaluar qué modelo es más pertinente, se utilizan pruebas estadísticas como el test F (para la significancia conjunta de los efectos fijos) o el test de Hausman. --- # 5. Comparación entre FE y RE: Test F ## Test F para la Significancia de los Efectos Fijos El objetivo es **contrastar la hipótesis nula de que todos los efectos individuales son iguales a cero** ( `\(H_0: \alpha_1 = \alpha_2 = ... = \alpha_N = 0\)` ) contra la alternativa de que al menos un efecto individual es diferente de cero. En otras palabras, se contrasta un modelo sin efectos individuales (Pooled OLS) contra un modelo con efectos individuales (FE). Es de anotar que rechazar `\(H_0\)` no implica que el modelo de FE sea insesgado. La idea del procedimiento o pasos a seguir es la siguiente: 1. Estimar el modelo sin restricciones (FE) y obtener la Suma de Cuadrados Residuales 'No Restringido' ( `\(URSS\)` ). 2. Estimar el modelo con restricciones (Pooled OLS) y obtener la Suma de Cuadrados Residuales 'Restringido' ( `\(RRSS\)` ). 3. Calcular el estadístico F: `$$F = \frac{(RRSS - URSS)/(N-1)}{URSS/(NT - N - k)} \sim F_{(N-1), NT-N-k}$$` --- # 5. Comparación entre FE y RE: Test F ## Test F para la Significancia de los Efectos Fijos Si el valor del estadístico F es grande se rechaza la hipótesis nula de que todos los efectos individuales son iguales a cero. Esto sugiere que el modelo de efectos fijos puede ser más apropiado que Pooled OLS (nuevamente, no confirma que sea insesgado). Algunas limitaciones de la prueba son: * Este test solo contrasta la significancia conjunta de los efectos individuales, pero no indica si estos están correlacionados con las variables explicativas (lo que determinaría la consistencia de RE). * Asume homocedasticidad y ausencia de autocorrelación en los errores. --- # 5. Comparación entre FE y RE: Test de Hausman ## Test de Hausman para Datos de Panel El **Test de Hausman** es un clásico en la literatura en panel. La idea es contrastar la consistencia del estimador de efectos aleatorios (RE) comparándolo con el estimador de efectos fijos (FE). El test se basa en la siguiente idea: 1. Supongamos que se tienen dos estimadores, `\(\hat{\theta}_e\)` y `\(\hat{\theta}_c\)`, de un parámetro `\(\theta\)`. 2. Bajo la hipótesis nula ( `\(H_0\)` ), ambos estimadores son consistentes, pero uno de ellos ( `\(\hat{\theta}_e\)` ) es asintóticamente eficiente, mientras que el otro ( `\(\hat{\theta}_c\)` ) es menos eficiente. 3. Bajo la hipótesis alternativa ( `\(H_1\)` ), `\(\hat{\theta}_e\)` es inconsistente, mientras que `\(\hat{\theta}_c\)` sigue siendo consistente. 4. Por ende, se puede construir un estadístico basado en la diferencia (cuadrática) ponderada (usando el inverso de las varianzas) entre los dos estimadores: `$$H = (\hat{\theta}_c - \hat{\theta}_e)' [Var(\hat{\theta}_c) - Var(\hat{\theta}_e)]^{-1} (\hat{\theta}_c - \hat{\theta}_e)$$` --- # 5. Comparación entre FE y RE: Test de Hausman ## Test de Hausman para Datos de Panel Notar que: - El estadístico `\(H\)` compara la magnitud de la diferencia entre los dos estimadores con la diferencia entre sus varianzas asintóticas. - Para que el estadístico `\(H\)` sea válido, se requiere que `\(Var(\hat{\theta}_c) - Var(\hat{\theta}_e)\)` sea definida positiva, lo cual no siempre se cumple en muestras finitas. Si `\(Var(\hat{\theta}_c) - Var(\hat{\theta}_e)\)` no es definida positiva, se puede utilizar una inversa generalizada o reemplazarla por `\(Var(\hat{\theta}_c - \hat{\theta}_e)\)` bajo `\(H_0\)`. Al aplicar la idea del test al contexto de panel ( **aplicada a FE y RE** ) se tendría lo siguiente: - Sean dos estimadores son consistentes (FE y RE), su diferencia debe converger a cero a medida que aumenta el tamaño de la muestra. Es decir, - Si `\(\mathbb{E}(\alpha_i|x_i)=0\)`, tanto RE como FE son consistentes, pero RE es más eficiente. - Si `\(\mathbb{E}(\alpha_i|x_i)\neq0\)`, RE es inconsistente mientras que FE sigue siendo consistente. --- # 5. Comparación entre FE y RE: Test de Hausman ## Test de Hausman para Datos de Panel **Hipótesis:** * `\(H_0: \mathbb{E}[\alpha_i | x_{i\cdot}] = 0\)` (Los efectos individuales no están correlacionados con las variables explicativas). * `\(H_1: \mathbb{E}[\alpha_i | x_{i\cdot}] \neq 0\)` (Los efectos individuales están correlacionados con las variables explicativas). * El estadístico de Hausman se calcula como: `$$H = (\hat{\beta}_{FE} - \hat{\beta}_{RE})' [Var(\hat{\beta}_{FE}) - Var(\hat{\beta}_{RE})]^{-1} (\hat{\beta}_{FE} - \hat{\beta}_{RE})$$` **Distribución Asintótica.** Bajo `\(H_0\)` y asumiendo que los errores `\(u_{it}\)` son homocedásticos y no están serialmente correlacionados, el estadístico `\(H\)` se distribuye asintóticamente como una `\(\chi^2\)` con `\(k\)` grados de libertad (donde `\(k\)` es el número de variables explicativas): `$$H \xrightarrow{d} \chi^2_k$$` --- # 5. Comparación entre FE y RE: Test de Hausman ## Test de Hausman para Datos de Panel **Advertencia:** Si no se cumplen los supuestos de homocedasticidad y no autocorrelación de los `\(u_{it}\)`, el test de Hausman estándar no es válido, y RE no es necesariamente eficiente. En tal caso, explorar usar una versión robusta del test de Hausman que utiliza una matriz de varianzas y covarianzas robusta. **Interpretación:** Si el valor del estadístico `\(H\)` es grande (mayor que el valor crítico de la distribución `\(\chi^2\)` con `\(k\)` grados de libertad), se **rechaza la hipótesis nula**. Esto sugiere que el estimador RE es inconsistente y **se prefiere el estimador FE**. Por el contrario, si el valor del estadístico `\(H\)` es pequeño (menor que el valor crítico), no se rechaza la hipótesis nula. Esto sugiere que el estimador RE puede ser consistente y, por lo tanto, se prefiere debido a su mayor eficiencia. --- class: inverse, middle, mline, center # 6. Modelos para Panel Dinámico - Dynamic Panel Models --- # 6. Panel Dinámico ## Introducción **Modelos de Paneles Dinámicos:** Modelos que incluyen rezagos de la variable dependiente como regresores, permitiendo capturar procesos de ajuste parcial o dinámicas persistentes. `$$y_{it} = \gamma y_{it-1} + x_{it}'\beta + \alpha_i + u_{it}$$` Pero el incorporar la variable rezagada conlleva varios **desafíos** en la estimación: - Inconsistencia del Estimador de Efectos Fijos (FE) debido a la endogeneidad de la variable dependiente rezagada ( `\(y_{it-1}\)` ). Específicamente, `\(y_{it-1}\)` está correlacionado con el término de error transformado `\((u_{it} - \bar{u}_{i\cdot})\)`, incluso si `\(u_{it}\)` no está serialmente correlacionado. - Sesgo de Nickell: En paneles con `\(T\)` pequeño, la correlación entre `\(y_{it-1}\)` y el efecto fijo `\(\alpha_i\)` induce un sesgo en el estimador FE. Este sesgo disminuye a medida que `\(T\)` aumenta, pero es significativo para `\(T\)` pequeño. - Endogeneidad. Además del sesgo de Nickell, otras variables explicativas podrían ser endógenas, lo que requiere el uso de variables instrumentales (IV) o métodos de estimación alternativos. --- # 6. Paneles Dinámicos ## Estrategia General de Estimación (2-steps) La idea de la estimación implica el manejo del efecto fijo y la endogeneidad mediante **dos pasos:** .content-box-red[**Paso 1: Eliminar el Efecto Fijo:**] Usar la primera diferencia o una transformación similar para eliminar el efecto individual no observado `\(\alpha_i\)`. Por ejemplo, tomando la primera diferencia del modelo, se obtiene: `$$\begin{eqnarray*} (y_{it})-(y_{it-1}) &=& \left(\gamma y_{it-1} + x_{it}'\beta + \alpha_i + u_{it}\right) - \left(\gamma y_{it-2} + x_{it-1}'\beta + \alpha_i + u_{it-1}\right)\\ & &\\ \Delta y_{it} &=& \gamma \Delta y_{i,t-1} + \Delta x_{it}' \beta + \Delta u_{it} \end{eqnarray*}$$` --- # 6. Paneles Dinámicos ## Estrategia General de Estimación (2-steps) .content-box-red[**Paso 2: Abordar la Endogeneidad.**] Notar que se elimina el efecto fijo `\(\alpha_i\)`, pero `\(\Delta y_{it-1}\)` sigue siendo endógeno (correlacionado con `\(\Delta u_{it}\)`): `$$\begin{eqnarray*} \mathbb{E}(\Delta y_{it-1}\cdot\Delta u_{it}) &=& \mathbb{E}((y_{it-1}-y_{it-2})\cdot (u_{it}-u_{it-1})) = -\sigma^2_u \neq0 \\ &\,& \\ \mathbb{E}(\Delta u_{it-s}\cdot\Delta u_{it}) &=& \left\{\begin{array}{ccc} 2\sigma^2_u & para & s=0 \\ -\sigma^2_u & para & s=1 \\ 0 & para & s>0 \end{array}\right. \end{eqnarray*}$$` Por ende, la idea es emplear variables instrumentales (IV) o el Método Generalizado de Momentos (GMM) para obtener estimadores consistentes de los parámetros del modelo. A continuación revisaré brevemente algo de las ideas (literatura). --- # 6. Panel Dinámico ## Estrategia General de Estimación (2-steps) **Método de Anderson-Hsiao (IV)** - Anderson and Hsiao (1981) sugirieron un estimador de variables instrumentales (IV) simple pero consistente. - Se pueden usar rezagos de la variable dependiente en niveles ( `\(y_{i,t-2}\)`, `\(y_{i,t-3}\)`, ... ) como instrumentos para `\(\Delta y_{it-1}\)`, asumiendo que no hay autocorrelación de orden superior en `\(u_{it}\)`. Alternativamente, se puede usar la variable dependiente rezagada en diferencia ( `\(\Delta y_{i,t-2}\)` ) como instrumento. - La validez del instrumento `\(y_{i,t-2}\)` se basa en la siguiente condición de momento: `$$\mathbb{E}[y_{i,t-2} \Delta u_{it}] = 0$$` - Una limitación del método es que, aunque el estimador es consistente, es ineficiente porque no utiliza todas las condiciones de momento disponibles. Además, puede tener un sesgo considerable en muestras finitas, especialmente si los instrumentos son débiles. --- # 6. Panel Dinámico ## Estrategia General de Estimación (2-steps) **Método de Arellano-Bond (GMM en Diferencias)** .font90[ - Arellano and Bond (1991) propusieron un estimador de **GMM en diferencias** más eficiente que utiliza condiciones de momento adicionales. - Los supuestos centrales del método son: (1) No hay correlación serial de orden superior en los errores `\(u_{it}\)`; y (2) las variables explicativas `\(x_{it}\)` son débilmente exógenas (pueden estar correlacionadas con valores pasados de `\(u_{it}\)` pero no con valores presentes o futuros). - Para construir los instrumentos ee utilizan rezagos de la variable dependiente ( `\(y_{i,t-2}, y_{i,t-3}, ...\)` ) y de las variables explicativas ( `\(x_{i,t-1}, x_{i,t-2}, ...\)` ) en cada período de tiempo. Así, para cada individuo `\(i\)`, se construye una matriz de instrumentos `\(W_i\)` que contiene los rezagos de las variables endógenas y exógenas (es decri, el estimador GMM en diferencias se basa en las condiciones de momento `\(\mathbb{E}[W_i' \Delta u_i] = 0\)`): ] .font80[ `$$W_i = \begin{bmatrix} y_{i1} & 0 & \cdots & 0 & x_{i1}' & x_{i2}' & 0 & \cdots & 0\\ 0 & (y_{i1}, y_{i2}) & \cdots & 0 & 0 & 0 & x_{i1}' & x_{i2}', x_{i3}' & \cdots & 0\\ \vdots & \vdots & \ddots & \vdots & \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & (y_{i1}, \dots, y_{i,T-2}) & 0 & 0 & 0 & 0 & \cdots & x_{i1}', \dots, x_{i,T-1}'\\ \end{bmatrix}$$` ] --- # 6. Panel Dinámico ## Estrategia General de Estimación (2-steps) **Método de Arellano-Bover/Blundell-Bond (GMM en Sistemas)** - Una limitación de GMM en Diferencias es que el estimador puede tener un mal desempeño cuando la variable dependiente es muy persistente (es decir, `\(\gamma\)` está cerca de 1) o cuando la varianza del efecto fijo ($\sigma_\alpha^2$) es grande en relación con la varianza del error idiosincrático ($\sigma_u^2$). En estos casos, los instrumentos rezagados son débiles. - Arellano and Bover (1995) y Blundell and Bond (1998) propusieron un estimador **GMM en sistemas** que combina dos conjuntos de ecuaciones: 1. **Ecuaciones en diferencias:** `\(\Delta y_{it} = \gamma \Delta y_{i,t-1} + \Delta x_{it}' \beta + \Delta u_{it}\)` (como en el GMM en diferencias). 2. **Ecuaciones en niveles:** `\(y_{it} = \gamma y_{it-1} + x_{it}' \beta + \alpha_i + u_{it}\)`. --- # 6. Panel Dinámico ## Estrategia General de Estimación (2-steps) **Método de Arellano-Bover/Blundell-Bond (GMM en Sistemas)** - Para usar las ecuaciones en niveles, se necesita un supuesto adicional: Estacionariedad en Media ( `\(\mathbb{E}[\alpha_i | y_{i0}] = \mathbb{E}[\alpha_i]\)` ), que implica que `\(\mathbb{E}[\alpha_i \Delta y_{it}]=0\)`, siendo esta la condición de momento clave para estimar `\(\gamma\)` en la ecuación en niveles. - Así, los instrumentos serían los siguientes: * **Ecuaciones en diferencias:** Se usan rezagos de las variables en *niveles* ( `\(y_{i,t-2}, y_{i,t-3}, ...\)` ) como instrumentos para las variables en diferencias. * **Ecuaciones en niveles:** Se usan *diferencias* rezagadas de las variables ( `\(\Delta y_{i,t-1}, \Delta y_{i,t-2}, ...\)` ) como instrumentos para las variables en niveles. La validez de estos instrumentos se basa en el supuesto de estacionariedad en media. - El estimador presenta mayor eficiencia (especialmente cuando los instrumentos son débiles) y mejor desempeño (que GMM en diferencias) en muestras finitas. --- # 6. Panel Dinámico **Consideraciones Prácticas** - **Prueba de Sobreidentificación (Test de Hansen):** * El test de Hansen (o J-test) se utiliza para evaluar la validez del conjunto de instrumentos en GMM. * Contrasta la hipótesis nula de que todos los instrumentos son válidos (no están correlacionados con el término de error). * Un valor p pequeño (menor que el nivel de significancia elegido) indica que se rechaza la hipótesis nula, lo que sugiere que al menos algunos instrumentos no son válidos. - **Prueba de Autocorrelación:** * Es importante verificar si hay autocorrelación de segundo orden en los residuos en diferencias ( `\(\Delta u_{it}\)` ). La presencia de autocorrelación de segundo orden invalida los instrumentos de orden superior. * El test de Arellano-Bond AR(2) se utiliza comúnmente para este propósito. * Si se detecta autocorrelación de segundo orden, se deben usar instrumentos más rezagados. --- # 6. Panel Dinámico **Consideraciones Prácticas** - Proliferación de Instrumentos: * Los estimadores GMM, especialmente el GMM en sistemas, pueden generar una gran cantidad de instrumentos, lo que puede llevar a problemas de: * Sesgo en muestras finitas: El estimador puede estar sesgado hacia el estimador FE cuando el número de instrumentos es grande en relación con el número de observaciones. * Pérdida de eficiencia: Un número excesivo de instrumentos puede reducir la eficiencia del estimador. * Debilitamiento del test de Hansen: El test de Hansen puede perder poder para detectar instrumentos inválidos cuando hay demasiados instrumentos. * Para mitigar estos problemas, se pueden usar técnicas como: * Reducir el número de rezagos utilizados como instrumentos. * Combinar instrumentos en un número menor de variables instrumentales ("colapsar" la matriz de instrumentos). * Utilizar métodos de penalización que reduzcan el número de instrumentos de forma automática. --- # 6. Panel Dinámico **Otros Desarrollos en el Área.** - **Mejoras en la técnica:** GMM de Dos Etapas con Variables Instrumentales Óptimas para reducir el sesgo en muestras finitas (Hwang and Sun, 2018); Variables Instrumentales de Componente Principal (Kapetanios and Marcellino, 2010; Bai, 2015); Métodos de Variables Instrumentales Regulares (Carrasco, 2012) en donde se aplican técnicas de regularización (ej. LASSO) al estimador de variables instrumentales para mejorar la eficiencia y la selección de instrumentos. - **Modelos Dinámicos Heterogéneos:** Estimadores Mean Group (MG) y Pooled Mean Group (PMG) por Pesaran et al. (1999). Permiten que los coeficientes varíen entre individuos. Common Correlated Effects (CCE) Estimators por Pesaran (2006) y extendidos por Chudik and Pesaran (2015) que permiten la heterogeneidad tanto en los coeficientes como en los efectos no observados. - **Incorporar efectos interactivos** `\(\alpha_i' \lambda_t\)` (Moon and Weidner, Ecta, 2015; Moon and Weidner, 2017). - **Otras Extensiones:** Incorporación de no linealidades; Regresión Cuantil en Paneles Dinámicos (Chen et al., 2015; Galvao, 2011); Incorporación de efectos espaciales y de red para capturar interacciones y efectos de contagio entre unidades (Belotti et al., 2017; Yu and Lee, 2010). - **O usar formas alternativas de estimar:** Uso de métodos bayesianos para la estimación, lo que ofrecen flexibilidad para incorporar información previa y manejar la incertidumbre en la estimación, especialmente en muestras pequeñas (Augier et al., 2013). --- # Cierre </br></br></br> ## <center>¿Preguntas?</center> .center[ ] `$$\,$$` .center[O vía E-mail: [lchanci1@binghamton.edu](mailto:lchanci1@binghamton.edu)]