Método de momentos: La idea básica consiste en igualar ciertas características muéstrales con las correspondientes características poblacionales
Enviado por 1309152138 • 3 de Septiembre de 2015 • Tarea • 1.262 Palabras (6 Páginas) • 146 Visitas
Método de momentos: La idea básica consiste en igualar ciertas características muéstrales con las correspondientes características poblacionales. Recordemos la siguiente definición.
Definición: Sea X una v.a. con función de probabilidad puntual pX (x) en el caso discreto o función de densidad f X (x) en el caso continuo. Se denomina momento de orden k (k ∈ N) o momento poblacional de orden k a E(Xk), es decir
∑x k | pX (x) | en el caso discreto | |||||
x | |||||||
E( X k ) = | ∞ | x k | f | (x) dx | en el caso continuo | ||
∫ | X | ||||||
-∞ |
si esas esperanzas existen.
Como ya hemos visto cuando estudiamos función generadora de momentos de una variable aleatoria, los momentos están relacionados con los parámetros de la distribución asociada.
Dada una muestra aleatoria X1 , X 2 ,..., X n , el momento muestral de orden k es
∑n X ik i=1
n[pic 1]
Definición: Sea X1 , X 2 ,..., X n una m.a. de una distribución con función de probabilidad puntual o función de densidad que depende de m parámetros θ1 , θ2 ,...., θm . Los estimadores de momentos de θ1 , θ2 ,...., θm son los valores θˆ1 , θˆ2 ,...., θˆm que se obtienen igualando m momentos poblacionales con los correspondientes momentos muéstrales. En general, se obtienen resolviendo el siguiente sistema de ecuaciones
n | |||
∑X ik | = E( X k ) | ||
i=1 | k =1,2,..., m | ||
n | |||
Ejemplos: 1) Sea X1 , X 2 ,..., X n una m.a. de una distribución exponencial de parámetro λ.
Como hay un solo parámetro a estimar, basta plantear una ecuación basada en el primer momento.
n | n | |||||||||||
∑X i | = E( X ) | ∑X i | 1 | ⇒ λˆ = | n | ⇒ λˆ = | 1 | |||||
i=1 | ⇒ | i=1 | = | |||||||||
n | ||||||||||||
n | n | λ | X | |||||||||
∑X i | ||||||||||||
i=1 | ||||||||||||
2) Sea X1 , X 2 ,..., X n una m.a. de una distribución Γ(α, λ). Como hay dos parámetros a estimar, planteamos un sistema de ecuaciones basadas en el primer y en el segundo momento.
Usando que si X ~ Γ(α, λ), | E( X ) = | α | |
V ( X ) = E( X 2 ) − ( E ( X ))2 , | λ | ||
y | V ( X ) = | α | y la relación: | |
λ2 | ||||
n | ||||
∑X i | ||||
i=1 | ||||
n | ||||
n | ||||
∑X i2 | ||||
i=1 | ||||
n | ||||
= E( X )
⇒
= E( X 2 )
n | ||||
∑X i | ||||
i=1 | ||||
n | ||||
n | ||||
∑X i2 | ||||
i=1 | ||||
n | ||||
- αλ
- α + α 2
- 2 λ
[pic 2]
Reemplazando αλ = X , en la segunda ecuación, se obtiene:
[pic 3]
n | |||||||||||||||||||||||||||||||||
∑X i2 | |||||||||||||||||||||||||||||||||
i=1 | = | X | + | 2 | |||||||||||||||||||||||||||||
X | |||||||||||||||||||||||||||||||||
n | λ | ||||||||||||||||||||||||||||||||
y, despejando λ : | |||||||||||||||||||||||||||||||||
n | |||||||||||||||||||||||||||||||||
∑X i2 | |||||||||||||||||||||||||||||||||
X | 2 | ⇒ λˆ = | X | ||||||||||||||||||||||||||||||
= | i=1 | − | |||||||||||||||||||||||||||||||
X | |||||||||||||||||||||||||||||||||
n | n | ||||||||||||||||||||||||||||||||
λ | ∑X i2 | ||||||||||||||||||||||||||||||||
i=1 | − | 2 | |||||||||||||||||||||||||||||||
X | |||||||||||||||||||||||||||||||||
n | |||||||||||||||||||||||||||||||||
Finalmente, reemplazando | el estimador de λ en la | primera ecuación, obtenemos el | |||||||||||||||||||||||||||||||
estimador de α : | |||||||||||||||||||||||||||||||||
2 | |||||||||||||||||||||||||||||||||
αˆ = | X | ||||||||||||||||||||||||||||||||
n | |||||||||||||||||||||||||||||||||
∑X i2 | 2 | ||||||||||||||||||||||||||||||||
i=1 | − | ||||||||||||||||||||||||||||||||
X | |||||||||||||||||||||||||||||||||
n | |||||||||||||||||||||||||||||||||
3) Sea X1 , X 2 ,..., X n | una m.a. de una distribución | U(0,θ). Como hay un único parámetro |
a estimar, planteamos una ecuación basada en el primer momento.
Método de máxima verosimilitud
...