ECONOMETRIA SQUARED
Enviado por MARIA FERNANDA GONZALEZ PAHUANA • 7 de Diciembre de 2015 • Ensayo • 1.895 Palabras (8 Páginas) • 176 Visitas
R- SQUARED. R CUADRADO
Es el promedio en porcentaje que explica la variable independiente a la dependiente el r² es simplemente el cuadrado del coeficiente de correlación de Pearson, lo cual es sólo cierto para la regresión lineal simple. Si existen varios resultados para una única variable, es decir, para una x existe una y, z... el coeficiente de determinación resulta del cuadrado del coeficiente de determinación múltiple. En ambos casos el r² adquiere valores entre 0 y 1. Existen casos dentro de la definición computacional de r² donde este valor puede tomar valores negativos.2
R- AJUSTEDD SQUARED- R AJUSTADO CUADRADO.
Se encarga de castigar o marcar los errores en la variable independiente. R2 ajustado se utiliza para compensar la adición de variables en el modelo. A medida que se añaden más variables independientes en el modelo de regresión, no ajustado R2 pueden incrementar, pero nunca habrá una disminución. Esto ocurrirá incluso cuando las variables adicionales hacen poco para ayudar a explicar la variable dependiente. Para compensar esto, R2 ajustado se corrige para el número de variables independientes en el modelo. El resultado es un R2 ajustado de lo que puede ir hacia arriba o hacia abajo dependiendo de si la adición de otra variable añade o no añade nada a la capacidad explicativa del modelo. Ajustado R2 siempre será menor que sin ajustar. Se ha convertido en una práctica estándar para reportar el R2 ajustado, sobre todo cuando hay varios modelos que se presentan con un número de variables independientes que varían.
S.E OF REGRESSION. REGRESION
Se encarga de arrojar los porcentajes en los errores en la obtención de los datos
SUM SQUARED RESID. SUMA RESIDUAL DE CUADRADOS.
En estadística, la suma residual de cuadrados (RSS) es la suma de los cuadrados de los residuales. También se conoce como la suma de los residuos al cuadrado (SSR) o la suma de errores cuadráticos de predicción (SSE). Es una medida de la discrepancia entre los datos y un modelo de estimación. Un pequeño RSS indica un ajuste apretado del modelo a los datos. En general, la suma total de cuadrados = explicó suma de cuadrados + suma residual de cuadrados. Para una prueba de ello en el caso multivariantes de mínimos cuadrados ordinarios (OLS), ver Particiones en el modelo general OLS.
LIKELIHOOD- PRUEBA DE VEROSIMILITUD.
En estadística, una prueba de razón de verosimilitud es una prueba estadística utilizada para comparar el ajuste de dos modelos, uno de los cuales (el modelo nulo) es un caso especial de la otra (el modelo alternativo). La prueba se basa en la relación de probabilidad, que expresa cuántas veces más probable que los datos están bajo un modelo que el otro. Esta relación de probabilidad, o equivalentemente su logaritmo, a continuación, se pueden utilizar para calcular un valor de p, o en comparación con un valor crítico para decidir si desea rechazar el modelo nulo a favor del modelo alternativo
Cuando se utiliza el logaritmo de la razón de verosimilitud, la estadística se conoce como una relación estadística de log-verosimilitud, y la distribución de probabilidad de esta estadística de prueba, en el supuesto de que el modelo nulo es cierto, se puede aproximar usando el teorema de Wilks. En el caso de distinguir entre dos modelos, cada uno de los cuales tiene parámetros desconocidos, el uso de la prueba de razón verosimilitud se puede justificar por el Neyman-Pearson lema, lo que demuestra que una prueba de este tipo tiene la potencia más alta entre todos los competidores. [1]
F- STATISTICS- INDICES DE FIJACION.
En genética de poblaciones, estadísticas F (también conocidos como índices de fijación) describen el nivel estadísticamente esperado de heterocigosidad en una población; Más específicamente, el grado esperado de (generalmente) una reducción en la heterocigosidad en comparación con la expectativa de Hardy-Weinberg. F-estadísticas también se pueden considerar como una medida de la correlación entre los genes extraídos en diferentes niveles de una población (jerárquicamente) subdividido. Esta correlación está influenciada por varios procesos evolutivos, tales como la mutación, la migración, la endogamia, la selección natural, o el efecto Wahlund, pero originalmente fue diseñado para medir la cantidad de fijación alélica debido a la deriva genética. El concepto de F-estadísticas se desarrolló durante la década de 1920 por el genetista estadounidense Sewall Wright, [1] [2] que estaba interesado en la consanguinidad en el ganado bovino. Sin embargo, debido a la dominación completa hace que los fenotipos dominantes homocigotos y heterocigotos a ser el mismo, no fue sino hasta el advenimiento de la genética molecular a partir de la década de 1960 en adelante que la heterocigosidad en las poblaciones podría ser medida.
F se puede utilizar para definir el tamaño efectivo de la población.
PROB (F-STATISTIC)
En teoría de la probabilidad y la estadística, la distribución F es una distribución de probabilidad continua. [1] [2] [3] [4] También se conoce como la distribución F de Snedecor o la distribución de Fisher-Snedecor (después de RA Fisher y George W. Snedecor). La distribución F se presenta con frecuencia como la distribución nula de una prueba estadística, sobre todo en el análisis de la varianza; ver F-test.S).
MEAN DEPENDENT VAR.
En teoría de la probabilidad, una variable aleatoria Y se dice que es independiente de la media variable aleatoria X si y sólo si E (Y | X) = E (Y) para todo x tal que ƒ1 (x) no es igual a cero. Y se dice que es media dependiente si E (Y | X). ≠ μ (y) para algunos x tal que ƒ1 (x) no es igual a cero [aclaración necesaria] Según Cameron y Trivedi (2009, p. 23) y Wooldridge (2010, pp. 54, 907), la independencia estocástica implica independencia significa, pero lo contrario no es necesariamente cierto. Por otra parte, significa la independencia implica decorrelación mientras que lo contrario no es necesariamente cierto. El concepto de independencia medio se utiliza a menudo en la econometría tener un término medio entre la fuerte suposición de distribuciones independientes f_ {x_1} perp} {f_ {X_2} y el supuesto débil de variables no correlacionadas \ text {} Cov (x_1, X_2 ) = 0 de un par de variables aleatorias x_1 y X_2. Si X, Y son dos variables aleatorias diferentes, tales que X es independiente media de Y y Z = f (X), lo que significa que Z es una función sólo de X, entonces Y y Z son independientes medias.
...