ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

6.7 Prueba De Hipotesis Para La Razon De Varianzas


Enviado por   •  29 de Mayo de 2013  •  2.309 Palabras (10 Páginas)  •  1.570 Visitas

Página 1 de 10

Ensayos de Calidad, Tareas, Monografias

Ensayos Gratis

Leer Ensayo Completo Prueba De Hipótesis Para Varianzas

Prueba De Hipótesis Para Varianzas

Imprimir Documento!

Suscríbase a ClubEnsayos - busque más de 786.000+ documentos

Categoría: Temas Variados

Enviado por: Antonio 02 mayo 2011

Palabras: 2779 | Páginas: 12

...

da estadística (promedio, varianza, etc.) calculada con todos los elementos de la población. Generalmente se simbolizan con letras del alfabeto griego o con letras mayúsculas.

2.2. Estimador

Es una medida estadística (promedio, varianza, etc.) calculada con la información suministrada por una muestra. Generalmente se simbolizan con la letra que identifica al parámetro y un ^ encima que se lee estimado, o con letras minúsculas de nuestro alfabeto.

2.3. Estimación

Es el valor numérico del estimador.

2.4. Inferencia

Generalmente, en estadística no es posible tomar toda la información, por lo que se debe tomar una muestra para analizarla y con base en la información suministrada por la muestra generalizar el comportamiento de la población entera. A esta generalización se le llama inferencia estadística.

En la estadística es fundamental el proceso de inferencia, ya que se afirma algo acerca del comportamiento de la población a partir de una muestra.

Dentro del proceso de inferencia hay dos tipos de estimación: estimación puntual y estimación por intervalo.

2.4.1. Estimación puntual

Si se toma una muestra aleatoria y con la información suministrada por ella se obtiene un indicador cualquiera (promedio, desviación estándar o proporción) es un estimador puntual del valor del parámetro. Es decir, un estimador puntual es un solo valor que, se supone, representa adecuadamente el comportamiento de una variable.

Un estimador puntual debe cumplir algunas condiciones mínimas para que sea considerado un buen estimador. Estas condiciones: insesgado, consistente, eficiente o de varianza mínima y suficiente.

Insesgado: Un estimador es insesgado si el valor promedio del estimador es igual al valor del parámetro.

Consistente: Un estimador es consistente, si a medida que aumenta el tamaño de la muestra, el valor del estimador se acerca al valor del parámetro.

Eficiente o de varianza mínima: Si se toman dos muestras aleatorias del mismo tamaño provenientes de la misma población y si con cada una de estas muestras se obtiene un estimador insesgado, es eficiente el que tenga menor varianza.

Suficiente: Un estimador es suficiente si para calcularlo se utiliza toda la información suministrada por la muestra.

2.4.2. Estimación por intervalos

En la estimación puntual se halla un solo valor o indicador del comportamiento de una variable, pero no se sabe qué tan cerca está el valor estimado del parámetro. Generalmente, no se necesita un valor exacto, si no un rango dentro del cual esperamos que esté el valor del parámetro; por esta razón, es de gran utilidad la estimación por intervalo en donde se tiene en cuenta la dispersión de los datos y de antemano se conoce la confiabilidad de la estimación.

2.5. Teorema central del límite

El teorema central del límite indica que, en condiciones muy generales, la distribución de la suma de variables aleatorias tiende a una distribución normal (también llamada distribución gaussiana o curva de Gauss o campana de Gauss) cuando la cantidad de variables es muy grande.

Teorema: Sea X1, X2, ..., Xn una muestra aleatoria de una distribución con media μ y varianza σ2. Entonces, si n es suficientemente grande, la variable aleatoria

[pic]

tiene aproximadamente una distribución normal con [pic]y [pic].

También se cumple que si [pic]

tiene aproximadamente una distribución normal con [pic]y [pic], cuanto más grande sea el valor de n, mejor será la aproximación.

El teorema del límite central garantiza una distribución normal cuando n es suficientemente grande. Existen diferentes versiones del teorema, en función de las condiciones utilizadas para asegurar la convergencia. Una de las más simples establece que es suficiente que las variables que se suman sean independientes, idénticamente distribuidas, con valor esperado y varianza finitas. La aproximación entre las dos distribuciones es, en general, mayor en el centro de las mismas que en sus extremos o colas, motivo por el cual se prefiere el nombre "teorema del límite central" ("central" califica al límite, más que al teorema).

2.6. Distribuciones en el muestreo

De una población de tamaño N, se pueden sacar N combinado n muestras diferentes de tamaño n. Con cada una de estas muestras es posible obtener un estimador, ya sea la media, proporción, varianza, etc... La distribución de estos estimadores se conoce como distribución en el muestreo.

El conocer la distribución en el muestreo de algunos de estos estimadores es útil en el desarrollo teórico de los temas correspondientes a estimación por intervalo y pruebas de hipótesis. Las distribuciones en el muestreo más utilizadas serían:

1. Distribución en el muestreo de la varianza

2. Distribución en el muestreo de la media

3. Distribución de la diferencia de medias

4. Distribución de la proporción

5. Distribución de la diferencia de proporciones

6. Distribución del cociente de varianzas

UNIDAD

...

Descargar como (para miembros actualizados)  txt (15.5 Kb)  
Leer 9 páginas más »
Disponible sólo en Clubensayos.com