Análisis estadístico inferencial
Enviado por filipinas20 • 8 de Octubre de 2014 • Tutorial • 3.248 Palabras (13 Páginas) • 320 Visitas
ANÁLISIS ESTADÍSTICO INFERENCIAL
Anteriormente ya han visto la forma de analizar datos descriptivos, correspondientes a la estadística descriptiva, para lo que se recomendó trabajar en MINITAB o EXCEL, si es que Ud. no se ha introducido en el SPSS, entre otros software de análisis estadísticos.
En esta sección veremos algunos de los más corrientes aspectos del análisis de datos cuantitativos correspondientes a la estadística inferencial, como son los análisis paramétricos y no paramétricos.
ANALISIS PARAMETRICO Y NO PARAMÉTRICO
Un parámetro es un dato que es tomado como necesario para analizar o valorar una situación. A partir del parámetro, una determinada circunstancia puede entenderse o situarse en perspectiva. Por ejemplo: “Si nos basamos en los parámetros habituales, resultará imposible comprender esta situación”, “El paciente está evolucionando de acuerdo a los parámetros esperados”, “Estamos investigando pero no hay parámetros que nos permitan establecer una relación con el caso anterior”, “La actuación del equipo en el torneo local es el mejor parámetro para realizar un pronóstico sobre su participación en el campeonato mundial”.
Para las matemáticas, un parámetro es una variable que permite identificar, en una familia de elementos, a cada uno de ellos mediante su valor numérico.
Un parámetro estadístico es una función definida sobre los valores numéricos de una población. Se trata, por lo tanto de un valor representativo que permite modernizar la realidad.
La utilidad de los parámetros estadísticos se encuentra ante la dificultad para manejar una gran cantidad de datos individuales de una misma población. Este tipo de parámetros permite obtener un panorama general de la población y realizar comparaciones y predicciones.
En las ciencias de la computación, un parámetro es una variable que puede ser recibida por una rutina o una subrutina (que utilizan los valores asignados a un parámetro para modificar su comportamiento en el tiempo de ejecución).
La parametrización de una base de datos, por otra parte, es la organización y estandarización de la información que se ingresa en un sistema. De esta forma, es posible realizar distintos tipos de consulta y obtener resultados fiables.
A continuación se muestra una tabla en que se clasifican las variables como paramétricas y no paramétricas:
Ejemplos de variables
Variable dimensión código Observaciones.
Genero hombre 1 Variable nominal. El código esta expresado en número que no se puede sumar; son excluyentes
mujer 2
Comuna Norte 1 Variable nominal. Se ubica la comuna del lugar de residencia y se asigna el código teniendo como base de clasificación los puntos cardinales para la comuna de Santiago y empleados por el Sistema Nacional de Servicios de Salud y de Educación.
Los códigos no se suman;
sur 2
Poniente 3
Oriente 4
Sur Oriente 5
edad años Variable paramétrica u ordinal; el número significa años de edad; se puede sumar.
Notas Número de 1 a 7 Variable ordinal. Los códigos se pueden sumar y cada valor tiene un significado
Colegio Municipal 1 Variable nominal o no paramétricas
Particular subvencionado 2
Particular 3
otro 4
Los métodos de estadística inferencial presentados a través del curso, son llamados métodos paramétricos porque ellos son basados en muestreo de una población con parámetros específicos, como la media (µ), la desviación estándar (σ) o la proporción (p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones completamente estrictas, así como el requisito de que los datos de la muestra provengan de una población normalmente distribuidos.
Las pruebas paramétricas requieren supuestos acerca de la naturaleza o forma de las poblaciones involucradas. Las pruebas no paramétricas no requieren estos supuestos. Consecuentemente, las pruebas no paramétricas de hipótesis son frecuentemente llamadas pruebas de libre distribución.
PRUEBAS PARAMÉTRICAS
Se llaman así porque su cálculo implica una estimación de los parámetros de la población con base en muestras estadísticas. Mientras más grande sea la muestra más exacta será la estimación, mientras más pequeña, más distorsionada será la media de las muestras por los valores raros extremos.
San valores numéricos dados.
Los análisis paramétricos partes de los siguientes supuestos:
1. La distribución poblacional de la variable dependiente es normal: el universo tiene distribución normal.
2. El nivel de medición de las variables es por intervalos de razón.
3. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.
Como estos criterios son muy rigurosos, algunos investigadores sólo basan sus análisis en el tipo de Hi y los niveles de medición de las variables.
Las pruebas paramétricas más utilizadas son (HFB2):
• Coeficiente de correlación de Pearson y regresión lineal.
• Prueba t.
• Prueba de contraste de las diferencias de proporciones.
• Análisis de varianza unidireccional (ANOVA en un solo sentido o oneway)
• Análisis de Varianza factorial (ANOVA)
• Análisis de covarianza (ANCOVA)
Descripción. (Otra lista de pruebas paramétricas):[3]
• Prueba del valor Z de la distribución normal
• Prueba T de Student para datos relacionados (muestras dependientes)
• Prueba T de Student para datos no relacionados (muestras independientes)
• Prueba T de Student-Welch para dos muestras independientes con varianzas no homogéneas
• Prueba de ji cuadrada de Bartlett para demostrar la homogeneidad de varianzas
• Prueba F (análisis de varianza o ANOVA)
El coeficiente de Correlación de Pearson (r)
Es una prueba estadística para analizar la relación entre dos variables medidas en un nivel por intervalos o de razón.
Prueba Hi del tipo de “A mayor X, mayor Y”; “A mayor X, menor Y”; etc.
La prueba en si no considera a una como independiente y la otra como dependiente, porque no evalúa la causalidad, solo la relación mutua (correlación).
El coeficiente se calcula a partir de las puntuaciones obtenidas en una muestra de dos variables. Se relacionan las puntuaciones obtenidas de una variable con las puntuaciones obtenidas de otra
...