Un modelo estadístico
Enviado por Aldaire1006 • 17 de Abril de 2013 • Ensayo • 431 Palabras (2 Páginas) • 485 Visitas
de determinación
Saltar a: navegación, búsqueda
En Estadística, se llama coeficiente de determinación a la proporción de la varianza de la variable dependiente que está explicada por un modelo estadístico.
[editar] Caso general
Un modelo estadístico se construye para explicar una variable aleatoria que llamaremos dependiente a través de otras variables aleatorias a las que llamaremos factores. Dado que podemos predecir una variable aleatoria mediante su media y que, en este caso, el error cuadrático medio es su varianza, el máximo error cuadrático medio que podemos aceptar en un modelo para una variable aleatoria que posea los dos primeros momentos es la varianza. Para estimar el modelo haremos varias observaciones de la variable a predecir y de los factores. A la diferencia entre el valor observado de la variable y el valor predicho la llamaremos residuo. La media cuadrática de los residuos es la varianza residual.
Si representamos por \sigma^2 la varianza de la variable dependiente y la varianza residual por \sigma^2_r, el coeficiente de determinación viene dado por la siguiente ecuación:
\rho^2 = 1 - { {\sigma^2_r} \over {\sigma^2} }
Se mide en tantos por ciento. Si la varianza residual es cero, el modelo explica el 100% de valor de la variable; si coincide con la varianza de la variable dependiente, el modelo no explica nada y el coeficiente de determinación es del 0%. En variables económicas y financieras, suele ser difícil conseguir un coeficiente de determinación mayor de un 30% .
[editar] Modelo lineal
En un modelo lineal, la variable dependiente y se explica mediante la ecuación y= \sum_{j=1}^n \beta_j x_j . Si observamos n veces tanto la variable aleatoria como los factores, podemos ordenar nuestras observaciones de la variable dependiente en una matriz \bold y mientras que colocaremos las de los factores en la matriz de regresión \bold X . Cada observación corresponderá a una coordenada de \bold y y a una fila de \bold X . Cada columna de la matriz de regresión corresponde a las observaciones de un factor. En cada observación el modelo cometerá un error:
y_i = \sum_{j=1}^m \beta_j x_{ij} + \varepsilon_i
Estos errores se llaman residuos. La varianza residual es la varianza de estos residuos.
\sigma_r^2 = \sum_{i=1}^n \varepsilon_i^2 = \bold \varepsilon ' \bold \varepsilon = (\bold y - \bold X \bold \beta ) ' (\bold y - \bold X \bold \beta )
\sum_{j=1}^n \beta_j x_{ij} es la parte de la variación de y_i explicada por el modelo lineal.
\varepsilon_i es la parte de la variación de y_i que no explica el modelo lineal.
Sumando estas dos partes, obtenemos y_i.
...