ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Modelos de regresión en analítica


Enviado por   •  19 de Abril de 2020  •  Informe  •  2.037 Palabras (9 Páginas)  •  163 Visitas

Página 1 de 9

Nombre: Antonio Chávez Campos

Matrícula:   

Nombre del curso: 

Modelos de regresión en analítica

Nombre del profesor:

Álvaro Gustavo Martínez Zariñán

Módulo: Cuatro

Actividad Entregable final

Fecha: 19/04/2020

Bibliografía:

Introducción a los modelos de regresión

Parte 1

1.- Define lo que significan los siguientes términos, indicando la fuente de información en formato APA, y presentando la interpretación del concepto con tus propias palabras.

Concepto

Definición, según …

Fuente en formato APA

Interpretación propia

Estimaciones puntuales

Según Bianco, A & Martinez, E (2004) nos comentan que la estimación puntual es usar una muestra para obtener números que, en algún sentido, sean los que mejor representan a los verdaderos valores de los parámetros de interés.

Un estimador puntual de un parámetro θ es un valor que puede ser considerado representativo de θ y se indicará θ ˆ. Se obtiene a partir de alguna función de la muestra

Bianco, A & Martinez, E (2004) Inferencia estadística - Estimación puntual. Recuperado de: http://www.dm.uba.ar/materias/probabilidades_estadistica_C/2011/1/PyEC132011.pdf

La estimación asigna valores a los parámetros de una población a partir de datos estadísticos obtenidos en las muestras. Su propósito caracterizar las poblaciones a partir de la información de las muestras.

Pruebas de hipótesis de medias cuando se conoce la desviación estándar de la población

Correlación positiva y negativa

Según Laguna, C. (s.f.) menciona que: es el estudio de la asociación no causal entre dos (o más) variables, es decir, si los cambios en una variable corresponden a cambios en la otra. Éstos pueden ser en la misma dirección (cuando una aumenta, la otra aumenta: correlación positiva) o en dirección contraria (cuando una aumenta, la otra disminuye: correlación negativa)

Laguna, C. (s.f.) CORRELACIÓN Y REGRESIÓN LINEAL. Recuperado de: http://www.ics-aragon.com/cursos/salud-publica/2014/pdf/M2T04.pdf

Cuando se tiene r>0 representa una relación positiva y r<0 nos indica relación negativa. Entre más cerca estén los coeficientes de +1,0 y -1,0, será mayor la fuerza de la relación entre las variables.

r<0: correlación negativa: las dos variables se correlacionan en sentido inverso.

r >0: correlación positiva: las dos variables se correlacionan en sentido directo.

Análisis de correlación

El análisis de correlación emplea métodos para medir la significación del grado o intensidad de asociación entre dos o más variables.

El concepto de correlación está estrechamente vinculado al concepto de regresión, pues, para que una ecuación de regresión sea razonable los puntos muestrales deben estar ceñidos a la ecuación de regresión.

Desconocido (s.f.) Análisis de Regresión y Correlación. Recuperado de:https://tarwi.lamolina.edu.pe/~fmendiburu/index-filer/academic/metodos1/Regresion.pdf

Tiene por objetivo proporcionar si existe relación entre dos variables o no.

Autocorrelación

Según Ramírez, D. (s.f.) indica que: surge cuando los términos de error del modelo no son independientes entre sí, es decir, cuando: E(uiuj)≠0. para todo i≠j. Entonces los errores estarán vinculados entre sí. Los estimadores mínimos cuadráticos ordinarios (MCO) obtenidos, bajo esta circunstancia, dejan de ser eficientes. La autocorrelación generalmente aparece en datos en serie de tiempo, aunque también se presenta en el caso de una muestra de corte transversal.

Ramírez, D. (s.f.) Correlación. Recuperado de: http://webdelprofesor.ula.ve/economia/dramirez/MICRO/FORMATO_PDF/Materialeconometria/Autocorrelacion.pdf 

En lo personal, interpreto que la autocorrelación se puede interpretar como la correlación entre miembros de una serie ordenada en el tiempo (información en la serie de tiempo) o en el espacio (corte transversal). La regresión lineal supone que no debe autocorrelación en los errores.

Coeficiente de correlación

Vinuesa, P (2016) interpreta que: es una medida de la relación (covariación) lineal entre dos variables cuantitativas continuas (x, y). La manera más sencilla de saber si dos variables están correlacionadas es determinar si co-varían (varían conjuntamente).

Vinuesa, P. (2016) Correlación: teoría y práctica. Recuperado de: https://www.ccg.unam.mx/~vinuesa/R4biosciences/docs/Tema8_correlacion.pdf

El coeficiente de correlación nos indica en que grado los sujetos presentan el mismo orden en dos variables, el valor oscila entre 0 y ±1, cuando la correlación es igual a 0 significa ausencia de relación.

Análisis multivariante

Según Cuadras, C. (2004) menciona que: el análisis multivariante es la parte de la estadística y el análisis de datos que estudia, analiza, representa e interpreta los datos que resulten de observar un número p>1 de variables estadísticas sobre una muestra de n individuos.

Sancho, J. (s.f.) indica que: para que un análisis se considere multivariado todas las variables deben ser aleatorias y relacionadas de tal manera que el efecto que producen no pueda ser interpretado de manera individual.

Cuadras, C. (2004) ANALISIS MULTIVARIANTE. Recuperado de: http://www.ub.edu/stat/personal/cuadras/amcast.pdf

Sancho, J (s.f.) Análisis multivariante. Recuperado de: https://www.academia.cat/files/425-3501-DOCUMENT/Sancho-9-14Maig12.pdf

Considero que el análisis multivariante es un conjunto de métodos estadísticos que tiene como propósito estudiar simultáneamente un conjunto de datos multivariantes, es decir, de que existen varias variables para cada individuo u objeto estudiado.

Inferencia no paramétrica

Según Laguna, C. (s.f) menciona que los métodos de inferencia estadística considerados hasta ahora partían de unos supuestos sobre la población determinados, que permitían encontrar el estadístico correspondiente para obtener un intervalo o para hacer un contraste de hipótesis. Estos procedimientos se conocen como métodos paramétricos y asumen que los datos proceden de una población cuya distribución de probabilidad es conocida (normal), o que al menos la distribución de los estadísticos empleados puede aproximarse mediante el teorema central del límite.

Martínez, Á. (2020) menciona que cuando la prueba a realizar no es sobre los parámetros del modelo, se le reconoce como no paramétrica o “libre distribución” porque no se conoce o no se puede probar el comportamiento de los datos.

Laguna, C (s.f.) Inferencia no paramétrica. Recuperado de: http://www.ics-aragon.com/cursos/salud-publica/2014/pdf/M2T09.pdf

Martínez, A. (2020) Modelos de regresión en analítica. Recuperado de: https://uniteconline.blackboard.com/bbcswebdav/pid-4852275-dt-content-rid-109258970_1/courses/UNI_202_01_29_M2A_MAINO_AI2L_AI2202/Apuntes%20de%20la%20semana%204.pdf

Se interpreta como la que estudia pruebas y modelos estadísticos, su distribución no se ajusta a los criterios paramétricos y sus procedimientos están fundamentados en distribuciones desconocidas.

Autocorrelación

Según Arranz, J. & Zamora, M. (s.f.) hacen referencia que: para detectar la presencia de autocorrelación se pueden utilizar métodos gráficos y contrastes de hipótesis. A través de los contrastes gráficos se intuirá si existe autocorrelación cuando existan comportamientos sistemáticos para los residuos.  

 

Los contrastes de hipótesis, por su parte, permiten, a través de una regla de decisión, considerar si con los datos de la muestra y con un nivel de significación (α) concreto se debe o no rechazar la hipótesis nula.  

 

Todos los contrastes numéricos de autocorrelación se plantean con idénticas hipótesis; así, podemos señalar que la forma general del contraste es:

 

H0:  No existe autocorrelación

H1:  Existe autocorrelación

Arranz, J. & Zamora, M. (s.f.) Análisis de autocorrelación. Recuperado de: http://ciberconta.unizar.es/LECCION/autocorrelacion/analisis%20de%20autocorrelacion.PDF

Considero que la autocorrelación es cuando existe un problema en los modelos de regresión cuando el error muestra correlaciones distintas entre los distintos momentos del tiempo o para los distintos individuos.

La autocorrelación puede estar causada por errores de especificación en el modelo.

...

Descargar como (para miembros actualizados) txt (16 Kb) pdf (204 Kb) docx (33 Kb)
Leer 8 páginas más »
Disponible sólo en Clubensayos.com