ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

BREVE APUNTE SOBRE LA ESTIMACIÓN DE LOS PARÁMETROS MCO Y MÁXIMA VEROSIMILITUD


Enviado por   •  2 de Septiembre de 2012  •  4.410 Palabras (18 Páginas)  •  1.106 Visitas

Página 1 de 18

BREVE APUNTE SOBRE LA ESTIMACIÓN DE LOS PARÁMETROS MCO Y MÁXIMA VEROSIMILITUD

Ramón Mahía – Rafael de Arce

Noviembre 2011

I.- Planteamiento

Sea el Modelo Básico de Regresión Lineal (MBRL) definido como:

donde los parámetros β cuantifican la relación parcial de cada variable exógena X con la endógena Y.

Partimos de que se ha completado la etapa de especificación del modelo econométrico y son conocidos por tanto los valores de la “Y” y las “X” para la muestra temporal o transversal seleccionada. Se plantea ahora la siguiente pregunta ¿cómo obtener una buena estimación de esos parámetros β a partir de los datos disponibles para “Y” y para cada una de las “X”?

II.- Estimador de Mínimos Cuadrados Ordinarios

Uno de los procedimientos más conocidos es el denominado Estimador de Mínimos Cuadrados Ordinarios (MCO). Este procedimiento plantea utilizar, como estimación de los parámetros, aquella combinación de β1, β2,…… βk que minimice los errores que el modelo cometerá. ¿Qué significa esto?. Está claro que, si dispusiéramos a priori de los parámetros estimados podríamos escribir el MBRL NO como:

sino como:

y, por tanto, podríamos computar el error o residuo que el modelo comete en la estimación de cada valor de la endógena comparando, de forma inmediata, el valor real de la endógena en cada observación con el valor estimado:

Este error dependería, evidentemente, del valor asignado a las estimaciones de los parámetros β; pues bien, el método de MCO sugiere utilizar aquella combinación de parámetros estimados que minimice la suma al cuadrado de todos los errores cometidos para las “n” observaciones disponibles:

Para obtener algebraicamente una expresión de cálculo operativa para los estimadores MCO, procedemos de la siguiente forma:

Desarrollo 1:

Derivación NO MATRICIAL de la expresión de los estimadores MCO

• La expresión a minimizar es:

• Para obtener los valores de cada uno de los “k” parámetros que minimizan esta expresión derivamos con respecto a cada uno de ellos e igualamos a cero, obteniendo “k” expresiones del tipo:

• Estas expresiones, se denominan “ecuaciones normales”. En este sistema de las ecuaciones normales las incógnitas son los parámetros a estimar y los valores conocidos son los datos muestrales recogidos de la “y” y de las “x”.

• Observadas una a una, para cada parámetro, las expresiones de las ecuaciones normales son:

• Lo que, teniendo en cuenta las expresiones matriciales del vector endógeno “Y” y de la matriz de variables exógenas “X”, puede expresarse matricialmente como:

• De donde se obtiene fácilmente (“despejando”) la expresión final matricial del vector de parámetros estimados :

Desarrollo 2:

Derivación MATRICIAL de la expresión de los estimadores MCO

Puede comprobarse cómo podríamos haber planteado el desarrollo de la expresión de los estimadores la estimación utilizando exclusivamente álgebra matricial. Efectivamente, la minimización de residuos puede plantearse a partir del vector de residuos “e” como:

Obsérvese cómo los productos matriciales y son en realidad el mismo e iguales a un escalar: efectivamente, la primera expresión es la transpuesta de la segunda y dado que el orden de cada una de ellas es (1x1), es decir, un escalar, estamos viendo en realidad dos expresiones equivalentes del mismo número (escalar). Así pues, podemos escribir + como ó bien cómo de modo que tenemos:

Ara resolver ahora la minimización, recurrimos de nuevo al concepto de derivada (necesariamente parcial) para lo que, en el caso de las matrices, debemos recordar una propiedad de utilidad: para cualquier par de matrices A y B se cumple que:

En nuestro caso, debemos derivar respecto a (ó ) tres sumandos, y es para el tercero de ellos ( ) para dónde debemos recordar la propiedad matricial anterior (en nuestro caso, A es la matriz y B es la matriz X’X).

de donde nuevamente obtenemos:

III.- Estimador Máximo Verosímil

Una segunda aproximación consiste en utilizar lo que se conoce como planteamiento de estimación máximo verosímil.

La idea del estimador máximo verosímil es sencilla de intuir. Un estimador MV de un parámetro desconocido es aquel valor que maximizaría la probabilidad de observar una determinada muestra obtenida suponiendo una serie de hipótesis de partida.

Así, por ejemplo:

1.- Si obtenemos una muestra de la altura de 150 personas y suponemos (esto es importante) que la altura se distribuye conforme a una distribución normal, la media muestral es un estimador máximo verosímil del verdadero valor de la media poblacional de la altura: si se extraen 150 datos de una población normal, el valor más probable de la media muestral es el valor de la media poblacional.

2.- ¿Cómo se determina (aproxima) el número de peces que pueblan un lago?.

Suponiendo que la distribución de los peces es uniforme a lo largo del lago (y que los peces no tienen memoria y por tanto pueden picar una y otra vez)

• Se pescan 100 peces del lago

• Se marcan y sueltan

• Se vuelven a pescar otros 100 peces inmediatamente

• Tomando entonces la frecuencia muestral de peces marcados en la segunda pesca, el número de peces (más verosímil) en el estanque es

Para determinar un estimador MV debemos ser capaces de:

1. Determinar con claridad las hipótesis relativas a la distribución teórica del parámetro en la población

2. Expresar matemáticamente la probabilidad de obtener una determinada muestra, en función de las hipótesis asumidas, de modo que esa expresión sea matemáticamente “maximizable” en función del parámetro muestral de interés.

En nuestro caso, este planteamiento propone utilizar como estimadores de los parámetros aquel conjunto de parámetros poblacionales

...

Descargar como (para miembros actualizados) txt (28 Kb)
Leer 17 páginas más »
Disponible sólo en Clubensayos.com