ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

REPASO MULTIVARIADO


Enviado por   •  25 de Abril de 2020  •  Apuntes  •  3.484 Palabras (14 Páginas)  •  171 Visitas

Página 1 de 14

REPASO MULTIVARIADO

Modelo matemático: predicción exacta de una variable a partir de otras variables.

Tipos de modelos matemáticos:

  • Determinista: es una representación exacta entre la variable predictora y la variable criterio. No tiene error porque es una predicción exacta. No evoluciona con el tiempo.
  • Estocástico: es una representación de la relación entre la variable criterio y la predictora, pero no todas las variables predictoras que influyen se están teniendo en cuenta. Si tiene error porque hay determinadas variables que no se tienen en cuenta. Evoluciona con el tiempo.

Proceso de generación de un modelo matemático:

  1. Fenómeno o sistema real: determinar las variables a considerar, obtener los datos, evaluar cómo simplificar los datos y determinar las posibles relaciones entre los datos.
  2. Conceptualización: el modelo empírico se convierte en modelo matemático, a través de la estimación de parámetros.
  3. Validación: asegurarse de que el modelo es correcto y aproxima a la realidad para la finalidad prevista.
  4. Desconceptualización: comprobar si la fórmula de verdad representa el fenómeno psicológico.
  5. Predicción o mejora: cuando se comprueba si es válido se establece que sirve para predecir, pero si no es válido se comienza una mejora del modelo.

Modelo lineal general: es un modelo estocástico donde se intenta explicar una variable a partir de otras, que pueden sumar o restar al fenómeno. Se crea una ecuación matemática donde se suman todos los factores y el error.

        

Características

  • Parsimonia: cuantas menos variables tenga un modelo mejor, ya que, a menor complejidad menor dificultad de interpretación.
  • Interpretabilidad: tiene que ser el modelo interpretable desde el punto de vista psicológico.
  • Buen modelo: sencillo e interpretable.

Principios

  • Linealidad: las variables tienen que tener relación. Directa: A aumenta y B aumenta. Inversa: A aumenta y B disminuye. Nula: no tienen relación A y B.
  • Aditividad: todas las variables aportan información.

Modelo de regresión lineal: explicación de una variable cuantitativa en función de otra variable cuantitativa o cualitativa.

Covarianza o Coeficiente de correlación de Pearson (rxy o R): mide la relación lineal entre dos variables. Nos informa de:

  • Intensidad: relación fuerte (valor cercano a 1) o relación débil (valor cercano a 0)
  • Dirección: Directa (valor positivo): A aumenta y B aumenta. Inversa (valor negativo): A aumenta y B disminuye.

Propiedades

  • Relación Espuria: se miden dos variables independientes entre sí, pero moderadas por una variable común. Interpreto de forma errónea que existe una relación entre dos variables.
  • Restricción de rango: puntuaciones unas muy cerca de las otras. Por lo tanto, los valores de coeficiente de correlación serán más bajos y serán poco acordes con la realidad.

Función de regresión: determina los valores que formarán la recta de regresión.

Recta de regresión: Y= bo (constante) + b1 (coeficiente de regresión cuando x=0) * x (VI)

Error de predicción o de pronóstico: es la desviación que hay entre el punto y la recta. Y – Y’= ε

Método de estimación por mínimos cuadrados: se buscan valores para b0 y b1 que disminuyan el error lo máximo posible.

Mínimos cuadrados ordinarios: estima la ecuación de forma que los errores de predicción sean mínimos. *Te proporciona la recta que menos errores tenga.

Máxima verosimilitud: máxima probabilidad de observar los valores de la variable criterio.

Descomposición de la varianza del modelo: una parte del modelo explica la varianza de la VD (debido a la regresión) y otra parte que no puede explicar (debido al residuo)

Coeficiente de determinación (R2): indica la parte de la varianza explicada. Toma valores entre 0 y 1. Si multiplicamos por 100 hablaremos en términos de % de la varianza explicada.

Coeficiente de alineación (1- R2): parte no explicada de la varianza.

Tamaño del efecto: como de fuertes son las diferencias entre las variables.

        Criterios

  • Regresión lineal:

R2= 0,02 pequeño

R2= 0,15 mediano

R2= 0,35 grande

  • T-Student
  • ANOVA:

Coeficientes de correlación

Parciales (R2): permite ver la relación entre la VD y la VI1 eliminando el influjo de la VI2 en ambas variables.

Semiparciales (Sr2): permite ver como influye una VI en la VD sabiendo que hay otra VI influyendo en la VD también. Al elevar los coeficientes al cuadrado y multiplicamos por 100 obtenemos el aporte específico de cada variable, es decir, que % aporta por sí sola esa variable a la VD.

Aporte específico: % de varianza explicada.

Patrones de asociación

  • Independencia: cada VI aporta información de forma independiente a la VD. [pic 1]

  • Redundancia: una parte de Y es explicada por ambas predictoras. La relación tiene que ser mayor de cero. [pic 2]
  • Supresión: las VIs suprimen la varianza irrelevante de la VD y aumentan su poder explicativo. Una variable predictora ayuda a la otra a explicar la VD ya que elimina varianza irrelevante de la VD.
  • Clásica: la variable supresora X2 (aumenta el poder explicativo de la otra predictora) puede no correlacionar con la variable criterio, pero correlaciona con la otra, X1, eliminando varianza irrelevante y por tanto, ayudando a que X1 correlacione mejor con la VD.  [pic 3]

[pic 4]

  • Cooperativa o recíproca: Ambas VIs suprimen una parte de varianza que no está relacionada con Y, por lo que cada una explica más cuando entre ellas se quitan la parte irrelevante. [pic 5]

Contraste de hipótesis o significación del coeficiente de determinación: nos permite poner a prueba la Ho, mantenerla o rechazarla.

        Pasos a seguir:

  1. Redactar las hipótesis
  2. Determinar el alfa
  3. Elegir la prueba estadística a través de los datos que tengo
  4. Comprobación de supuestos
  5. Analizar el tamaño del efecto
  6. Conclusión de la prueba

Nivel de confianza: región donde están los valores compatibles con Ho. Si el estadístico de contraste cae en esta zona= mantenemos Ho. (90%; 95%; 99%)

Nivel de significación: región de rechazo. Si el estadístico de contraste cae en esta zona= rechazamos Ho.

α: punto de corte que estable el investigador (0,1; 0,05; 0,01)

...

Descargar como (para miembros actualizados) txt (17 Kb) pdf (165 Kb) docx (95 Kb)
Leer 13 páginas más »
Disponible sólo en Clubensayos.com