ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Analisis De Regresiòn Multiple


Enviado por   •  23 de Noviembre de 2012  •  2.358 Palabras (10 Páginas)  •  1.121 Visitas

Página 1 de 10

Análisis de regresión múltiple: el problema de estimación

El modelo con dos variables, estudiado con amplitud en los capítulos anteriores, suele ser inadecuado en la práctica. Es el caso del ejemplo consumo-ingreso (ejemplo 3.1), donde se supuso implícitamente que sólo el ingreso X se relaciona con el consumo Y. Pero la teoría económica rara vez es tan simple, pues, además del ingreso, muchas otras variables probablemente afectan el gasto de consumo. Un ejemplo obvio es la riqueza del consumidor. Para citar otro ejemplo, es probable que la demanda de un bien dependa no sólo de su propio precio sino también de los precios de otros bienes competitivos o complementarios, del ingreso del consumidor, de la condición social, etc. Por consiguiente, se necesita ampliar el modelo simple de regresión con dos variables para considerar modelos con más de dos variables. La adición de variables conduce al análisis de los modelos de regresión múltiple, es decir, modelos en los cuales la variable dependiente, o regresada, Y, depende de dos o más variables explicativas, o regresoras. El modelo de regresión múltiple más sencillo posible es la regresión de tres variables, con una variable dependiente y dos variables explicativas. En este capítulo y en el siguiente estudiaremos este modelo. Durante todo el análisis, trataremos con modelos de regresión lineal múltiple, es decir, modelos lineales en los parámetros, que pueden ser o no lineales en las variables.

7.1 Modelo con tres variables: notación y supuestos

Al generalizar la función de regresión poblacional (FRP) de dos variables (2.4.2), podemos escribir la FRP de tres variables así:

Yi =β1 + β2X2i + β3X3i + ui(7.1.1)

dondeY es la variable dependiente, X2 y X3 las variables explicativas (o regresoras), u es el término de perturbación estocástica, e i la i-ésima observación; en caso de que los datos sean series de tiempo, el subíndice t denotará la t-ésima observación.

En la ecuación (7.1.1), β1 es el término del intercepto. Como es usual, este término da el efecto medio o promedio sobre Y de todas las variables excluidas del modelo, aunque su interpretación mecánica sea el valor promedio de Y cuando X2 y X3 se igualan a cero. Los coeficientes β2 y β3 se denominan coeficientes de regresión parcial, y su significado se explicará en breve.

Continuamos operando dentro del marco del modelo clásico de regresión lineal (MCRL), presentado en el capítulo 3. Específicamente, suponemos lo siguiente:

SUPUESTOS

1. Modelo de regresión lineal, o lineal en los parámetros. (7.1.2)

2. Valores fijos de X o valores de X independientes del término de error. En este caso, esto significa que se requiere covarianza cero entre uiy cada variable X.

cov (ui, X2i) = cov (ui, X3i) = 0 (7.1.3)2

3. Valor medio de la perturbación uiigual a cero.

E(ui|X2i, X3i) =0 por cada i (7.1.4)

4. Homoscedasticidad o varianza constante de ui.

var (ui) =σ2 (7.1.5)

5. No autocorrelación, o correlación serial, entre las perturbaciones.

cov (ui, uj) =0i diferente dej(7.1.6)

6. El número de observaciones n debe ser mayor que el de parámetros por estimar, que en el presente caso son 3. (7.1.7)

7. Debe haber variación en los valores de las variables X.(7.1.8)

También abordaremos otros dos requisitos.

8. No debe haber colinealidad exacta entre las variables X.

No hay relación lineal exacta entre X2 y X3 (7.1.9)

En la sección 7.7 dedicaremos más tiempo a analizar el supuesto final.

9. No hay sesgo de especificación.

El modelo está especificado correctamente.(7.1.10)

El fundamento de los supuestos (7.1.2) a (7.1.10) es el mismo que se explicó en la sección 3.2.

El supuesto (7.1.9), que establece la no existencia de una relación lineal exacta entre X2 y X3, se conoce técnicamente como supuesto de no colinealidad, o de no multicolinealidadcuando hay más de una relación lineal exacta.

Informalmente, la no colinealidad significa que ninguna de las regresoras puede escribirse como combinación lineal exacta de las regresoras restantes en el modelo.

De manera formal, la no colinealidad significa que no existe un conjunto de números λ2 y λ3, al menos uno diferente de cero, tales que

λ2X2i + λ3X3i =0(7.1.11)

Si hay dicha relación lineal, se dice que X2 y X3 son colinealeso linealmente dependientes. Por otra parte, si (7.1.11) se cumple sólo cuando λ2 = λ3 = 0, se dice que X2 y X3, son linealmente independientes.

Así, si

X2i = −4X3ioX2i + 4X3i =0(7.1.12)

las dos variables son linealmente dependientes, y si se incluyen ambas en un modelo de regresión, tendremos colinealidad perfecta o una relación lineal exacta entre las dos regresoras. Aunque consideraremos con más detalle el problema de multicolinealidad en el capítulo 10, es fácil captar intuitivamente la lógica del supuesto de no multicolinealidad. Suponga que en (7.1.1) Y, X2 y X3 representan el gasto de consumo, el ingreso y la riqueza del consumidor, respectivamente. Al postular que el gasto de consumo está relacionado linealmente con el ingreso y la riqueza, la teoría económica supone que los dos anteriores pueden tener alguna influencia independiente sobre el consumo. De no ser así, no tiene sentido incluir ambas variables, ingreso yriqueza, en el modelo. En la situación extrema, si existe una relación lineal exacta entre ingreso y riqueza, sólo hay una variable independiente, no dos, y no hay forma de evaluar la influencia separada del ingreso y de la riqueza sobre el consumo. Para ver esto claramente, sea X3i = 2X2ien la regresión consumo-ingreso-riqueza. Entonces, la regresión (7.1.1) resulta ser

Yi =β1 + β2X2i + β3(2X2i ) + ui

=β1 + (β2 + 2β3)X2i+ ui

=β1 + αX2i + ui(7.1.13)

dondeα = (β2 + 2β3). Es decir, de hecho se tiene una regresión de dos variables y no de tres. Además,

si se hace la regresión (7.1.13) y se obtiene α, no hay forma de estimar la influencia separada de X2 (= β2) y X3 (= β3) sobre Y, pues α da la influencia combinada de X2 y X3 sobre Y.3

En resumen, el supuesto de no multicolinealidad requiere que en la FRP se incluyan solamente las variables que no sean funciones lineales exactas de alguna variable del modelo. Aunque analizaremos este tema con más detalle en el capítulo 10, vale la pena notar un par de puntos aquí:

Primero, el supuesto de que no hay multicolinealidad pertenece al

...

Descargar como (para miembros actualizados) txt (15 Kb)
Leer 9 páginas más »
Disponible sólo en Clubensayos.com