Veriable Deprndiente
Enviado por ebimael • 5 de Noviembre de 2014 • 1.196 Palabras (5 Páginas) • 230 Visitas
Introducción
En este capítulo, primero se tratará sobre el análisis residual inferencial acerca de la pendiente, La inferencia estadística es discutida en gran detalle. Luego se considerará el caso donde hay más de una variable predictora y se hacen las inferencias correspondientes. Finalmente se discutirá los métodos de elegir las mejores variables predictoras que produzcan un modelo confiable con el menor número de variables. Las observaciones de X e Y pueden ser de dos tipos:
Los valores de la variable X son especificados por el experimentador. Para cada valor de X se eligen individuos con dicho valor y se observa su valor aleatorio para la variable Y Las dos variables X e Y son aleatorias. Se eligen al azar n individuos y observamos los valores de las variables X e Y en ellos
Si se da ese tipo de relaciones, se suele recurrir a los estudios de regresión en los cuales se obtiene una nueva relación pero de un tipo especial denominado función, en la cual la variable independiente se asocia con un indicador de tendencia central de la variable dependiente. Cabe recordar que en términos generales, una función es un tipo de relación en la cual para cada valor de la variable independiente
La dependencia a la que hacemos referencia es relacional matemática y no necesariamente de causalidad. Así, para un mismo número de unidades producidas, pueden existir niveles de costo, que varían empresa a empresa.
Ya que el análisis de esta pendiente s ampliamente utilizado para la predicción y previsión, donde su uso tiene superposición sustancial en el campo de aprendizaje automático. El análisis de regresión se utiliza también para comprender que cuales de las variables independientes están relacionadas con la variable dependiente, y explorar las formas de estas relaciones. En circunstancias limitadas, el análisis de regresión puede utilizarse para inferir relaciones causales entre las variables independientes y dependientes. Sin embargo, esto puede llevar a ilusiones o falsas relaciones, por lo que se recomienda precaución,1 por ejemplo, la correlación no implica causalidad.
Se han desarrollado muchas técnicas para llevar a cabo análisis de regresión. Métodos familiares tales como regresión lineal y ordinaria de mínimos cuadrados de regresión son paramétrica, en que la función de regresión se define en términos de un número finito de desconocidos parámetros que se estiman a partir de los datos.
Índice
Inducción
Contenido
Conclusión
Mi conclusión es que en estadística este es un proceso estadístico para la estimación de relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra en la relación entre una variable dependiente y una o más variables independientes. Más específicamente, el análisis de regresión ayuda a entender cómo el valor típico de la variable dependiente cambia cuando cualquiera de las variables independientes es variada, mientras que se mantienen las otras variables independientes fijas. Más comúnmente, el análisis de regresión estima la esperanza condicional de la variable dependiente dadas las variables independientes - es decir, el valor promedio de la variable dependiente cuando se fijan las variables independientes son a veces comprobable si una cantidad suficiente de datos está disponible. Ya que Los modelos de regresión para la predicción a menudo son útiles incluso cuando los supuestos son violados moderadamente, aunque pueden no funcionar de manera óptima. Sin embargo, en muchas aplicaciones, sobre todo con pequeños efectos o las cuestiones de causalidad sobre la base de los datos de observación, métodos de regresión pueden dar resultados engañosos.
Análisis residual de la Inferencia de acerca de la pendiente
Regresión: conjunto de técnicas que son usadas para establecer una relación entre una variable cuantitativa llamada variable dependiente y una o más variables independientes, llamadas predictoras. Estas deben ser por lo
...