ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Método de momentos: La idea básica consiste en igualar ciertas características muéstrales con las correspondientes características poblacionales


Enviado por   •  3 de Septiembre de 2015  •  Tareas  •  1.262 Palabras (6 Páginas)  •  124 Visitas

Página 1 de 6

Método de momentos: La idea básica consiste en igualar ciertas características muéstrales con las correspondientes características poblacionales. Recordemos la siguiente definición.

Definición: Sea X una v.a. con función de probabilidad puntual pX (x) en el caso discreto o función de densidad f X (x) en el caso continuo. Se denomina momento de orden k (k  N) o momento poblacional de orden k a E(Xk), es decir

x k

pX (x)

en el caso discreto

x

E( X k ) =

x k

f

(x) dx

en el caso continuo

X

-∞

si esas esperanzas existen.

Como ya hemos visto cuando estudiamos función generadora de momentos de una variable aleatoria, los momentos están relacionados con los parámetros de la distribución asociada.

Dada una muestra aleatoria X1 , X 2 ,..., X n , el momento muestral de orden k es

n X ik i=1

n[pic 1]

Definición: Sea X1 , X 2 ,..., X n una m.a. de una distribución con función de probabilidad puntual o función de densidad que depende de m parámetros θ1 , θ2 ,...., θm . Los estimadores de momentos de θ1 , θ2 ,...., θm son los valores θˆ1 , θˆ2 ,...., θˆm que se obtienen igualando m momentos poblacionales con los correspondientes momentos muéstrales. En general, se obtienen resolviendo el siguiente sistema de ecuaciones

n

X ik

= E( X k )

i=1

k =1,2,..., m

n

Ejemplos: 1) Sea X1 , X 2 ,..., X n una m.a. de una distribución exponencial de parámetro λ.

Como hay un solo parámetro a estimar, basta plantear una ecuación basada en el primer momento.

n

n

X i

= E( X )

X i

1

  λˆ =

n

  λˆ =

1

i=1

i=1

=

n

n

n

λ

X

X i

i=1

2) Sea X1 , X 2 ,..., X n una m.a. de una distribución  Γ(α, λ). Como hay dos parámetros a estimar, planteamos un sistema de ecuaciones basadas en el primer y en el segundo momento.

Usando  que  si  X  ~  Γ(α,  λ),

E( X ) =

α

V ( X ) = E( X 2 )  ( E ( X ))2 ,

λ


y

V ( X ) =

α

y  la  relación:

λ2

n

X i

i=1

n

n

X i2

i=1

n


= E( X )

= E( X 2 )


n

X i

i=1

n

n

X i2

i=1

n


  • αλ 
  • α + α 2 
  • 2       λ

[pic 2]


Reemplazando  αλ = X , en la segunda ecuación, se obtiene:

[pic 3]

n

X i2

i=1

=

X

+

2

X

n

λ

y, despejando  λ :

n

X i2

X

2

   λˆ =

X

=

i=1

X

n

n

λ

X i2

i=1

2

X

n

Finalmente, reemplazando

el estimador de  λ en la

primera ecuación, obtenemos el

estimador de α :

2

αˆ =

X

n

X i2

2

i=1

X

n

3) Sea X1 , X 2 ,..., X n

una m.a. de una distribución

U(0,θ). Como hay un único parámetro

a estimar, planteamos una ecuación basada en el primer momento.

Método de máxima verosimilitud

...

Descargar como (para miembros actualizados) txt (11 Kb) pdf (798 Kb) docx (484 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com