ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Normal Multivariada


Enviado por   •  23 de Abril de 2014  •  1.623 Palabras (7 Páginas)  •  443 Visitas

Página 1 de 7

En probabilidad y estadística, una distribución normal multivariante, también llamada distribución gaussiana multivariante, es una generalización de la distribución normal unidimensional a dimensiones superiores.

Índice [ocultar]

1 Caso general

1.1 Función de distribución

1.2 Un contraejemplo

1.3 Normalmente distribuidas e independencia

2 Caso bivariante

3 Transformación afín

4 Interpretación geométrica

5 Correlaciones e independencia

6 Momentos más altos

7 Distribuciones condicionales

7.1 Esperanza condicional bivariante

8 Matriz de información de Fisher

9 Divergencia de Kullback-Leibler

10 Estimación de parámetros

11 Entropía

12 Tests de normalidad multivariante

13 Simulando valores de la distribución

14 Referencias

Caso general[editar]

Un vector aleatorio \ X = [X_1, \dots, X_n]^T sigue una distribución normal multivariante si satisface las siguientes condiciones equivalentes:

Toda combinación lineal \ Y = a_1 X_1 + \cdots + a_n X_n está normalmente distribuida.

Hay un vector aleatorio \ Z = [Z_1, \dots, Z_m]^T, cuyas componentes son independientes son variables aleatorias distribuidas según la normal estándar, un vector \ \mu = [\mu_1, \dots, \mu_n]^T y una matriz n \times m \ A tal que \ X = A Z + \mu.

Hay un vector \mu y una matriz semidefinida positiva simétrica \ \Sigma tal que la función característica de X es

\phi_X\left(u;\mu,\Sigma\right)

=

\exp

\left(

i \mu^\top u - \frac{1}{2} u^\top \Sigma u

\right).

Si \ \Sigma es una matriz no singular, entonces la distribución puede describirse por la siguiente función de densidad:

f_X(x_1, \dots, x_n)

=

\frac

{1}

{(2\pi)^{n/2}|\Sigma|^{1/2}}

\exp

\left(

-\frac{1}{2}

( x - \mu)^\top \Sigma^{-1} (x - \mu)

\right)

donde \ \left| \Sigma \right| es el determinante de \ \Sigma. Nótese como la ecuación de arriba se reduce a la distribución normal si \ \Sigma es un escalar (es decir, una matriz 1x1).

El vector μ en estas circunstancias es la esperanza de X y la matriz \ \Sigma = A A^T es la matriz de covarianza de las componentes Xi.

Es importante comprender que la matriz de covarianza puede ser singular (aunque no esté así descrita por la fórmula de arriba, para la cual \ \Sigma^{-1} está definida).

Este caso aparece con frecuencia en estadística; por ejemplo, en la distribución del vector de residuos en problemas ordinarios de regresión lineal. Nótese también que los Xi son en general no independientes; pueden verse como el resultado de aplicar la transformación lineal A a una colección de variables normales Z.

Esta distribución de un vector aleatorio X que sigue una distribución normal multivariante puede ser descrita con la siguiente notación:

X\ \sim \mathcal{N}(\mu, \Sigma),

o hacer explícito que X es n-dimensional,

X\ \sim \mathcal{N}_N(\mu, \Sigma).

Función de distribución[editar]

La función de distribución F(x) se define como la probabilidad de que todos los valores de un vector aleatorio X sean menores o iguales que los valores correspondientes de un vector x. Aunque F no tenga una fórmula, hay una serie de algoritmos que permiten estimarla numéricamente.1

Un contraejemplo[editar]

El hecho de que dos variables aleatorias X e Y sigan una distribución normal, cada una, no implica que el par (X, Y) siga una distribución normal conjunta. Un ejemplo simple se da cuando Y = X si |X| > 1 e Y = −X si |X| < 1. Esto también es cierto para más de dos variables aleatorias.2

Normalmente distribuidas e independencia[editar]

Si X e Y están normalmente distribuidas y son independientes, su distribución conjunta también está normalmente distribuida, es decir, el par (X, Y) debe tener una distribución normal bivariante. En cualquier caso, un par de variables aleatorias normalmente distribuidas no tienen por qué ser independientes al ser consideradas de forma conjunta.

Caso bivariante[editar]

En el caso particular de dos dimensiones, la función de densidad (con media (0, 0) es

f(x,y) = \frac{1}{2 \pi \sigma_x \sigma_y \sqrt{1-\rho^2}}

\exp

\left(

-\frac{1}{2 (1-\rho^2)}

\left(

\frac{x^2}{\sigma_x^2} +

\frac{y^2}{\sigma_y^2} -

\frac{2 \rho x y}{ (\sigma_x \sigma_y)}

\right)

\right)

donde \rho es el coeficiente de correlacion entre X e Y. En este caso,

\Sigma =

\begin{bmatrix}

\sigma_x^2 & \rho \sigma_x \sigma_y \\

\rho \sigma_x \sigma_y & \sigma_y^2

\end{bmatrix}.

Transformación afín[editar]

Si Y = c + B X \, es una transformación afín de X\ \sim \mathcal{N}(\mu, \Sigma), donde c\, es un M \times 1 vector de constantes y B\, una M \times N matriz, entonces Y\, tiene una distribución normal multivariante con esperanza c + B \mu \, y varianza B \Sigma B^T \, esto es, Y \sim \mathcal{N} \left(c + B \mu, B \Sigma B^T\right). En particular, cualquier subconjunto de las X_i\, tiene una distribución marginal que es también una normal multivariante.

Para ver esto, considérese el siguiente ejemplo: para extraer el subconjunto (X_1, X_2, X_4)^T \,, úsese

B =

\begin{bmatrix}

1 & 0 & 0 & 0 & 0 & \ldots & 0 \\

0 & 1 & 0 & 0 & 0 & \ldots & 0 \\

0 & 0 & 0 & 1 & 0 & \ldots & 0

\end{bmatrix}

lo que extrae directamente los elementos deseados.

Otro corolario sería que la distribución de Z=b\cdot X, donde b es un vector de la misma longitud que X y el punto indica un producto vectorial,

...

Descargar como (para miembros actualizados) txt (11 Kb)
Leer 6 páginas más »
Disponible sólo en Clubensayos.com