ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadistica Y Psicologia


Enviado por   •  9 de Enero de 2013  •  3.967 Palabras (16 Páginas)  •  557 Visitas

Página 1 de 16

Estadistica y Psicologia

RESUMEN

• Después de enunciar brevemente los principales aportes de los pioneros ingleses de la ciencia estadística, se examina en una perspectiva histórica el proceso de la inferencia estadística como el mecanismo fundamental para el manejo de los errores variables en una investigación. Se identifican los componentes distintivos de los dos enfoques conceptuales que se amalgaman en la exposición establecida de los diferentes pasos de la inferencia estadística, a saber, el enfoque de Fisher y el enfoque de Pearson y Neyman. Las enemistades personales entre estadísticos ilustran el papel de las pasiones humanas en las controversias intelectuales. Se alude brevemente a las consecuencias negativas del híbrido representado por el matrimonio de conveniencia entre puntos de vista claramente opuestos.

El presente artículo es de interés tanto para el estadista como para el psicólogo. Las técnicas de análisis de datos más frecuentemente utilizados por los psicólogos en sus investigaciones fueron creadas por un pequeño grupo de estadísticos ingleses: Francis Galton, Karl Pearson, William Gosset (Student), Ronald Fisher y Egon Pearson (hijo de Karl Pearson); este último (Egon Pearson) trabajó en colaboración con el matemático polaco Jerzy Neyman, quien vivió por un tiempo en Inglaterra y más tarde se estableció en Los Estados Unidos de América. Las ideas de correlación y regresión provienen de Galton; el primer Pearson, además de producir la fórmula para el cálculo de la correlación, es el creador de la prueba de la ji cuadrada. Gosset creó la prueba T en su forma original, Fisher desarrolló aún más la prueba T bautizándola con el nombre de “la T de Student” y no la T de Gosset, porque éste, debido a los términos del contrato laboral suscrito entre él y la cervecería Guinness de Dublín, Irlanda, sólo podía firmar con su verdadero nombre los informes y documentos preparados para la empresa, y por esa razón usaba el pseudónimo de “Student” para firmar sus artículos sobre estadística.

Además de desarrollar la famosa T de Student, Fisher creó el análisis de varianza, que luego fue bautizado con el nombre de prueba F, en su honor.

Pero el legado más controversial de Fisher es la prueba de la hipótesis nula como la estrategia de inferencia inductiva que debe guiar el análisis estadístico de los datos en una investigación científica. Es en este punto, donde han intervenido Egon Pearson y Jerzy Neyman (de aquí en adelante, Pearson & Neyman), contradiciendo la posición de Fisher y generando un debate, desconocido para la mayoría de estadísticos y psicólogos, que por medio de los libros de texto hemos heredado una estrategia de análisis que aparentemente ha disuelto la contradicción. (Aron & Aron, 2001; Gigerenzer et al., 2004).

Además de informar al lector acerca de cómo la enemistad personal puede afectar una controversia científica, la meta principal del presente artículo es dejar claramente establecido cuáles son los aportes Fisher y cuáles los de Pearson & Neyman en la prueba de la hipótesis nula, tal como el procedimiento es expuesto en los libros de texto y rutinariamente practicado en la investigación psicológica publicada.

Refrescando la memoria del lector

Utilizando una analogía de indudable valor didáctico, Hyman (1964) comparaba el análisis estadístico de los datos de una investigación con el proceso de la digestión. Cuando el alimento, que en esta analogía corresponde a los datos, es ingerido por un organismo, no puede ser utilizado por éste mientras no haya sido desintegrado y reconstituido en una forma asimilable. Diferentes sustancias alimenticias requieren para este proceso diferentes períodos de tiempo y combinaciones distintas de la actividad digestiva. El proceso digestivo ha de de adaptarse en una forma altamente específica a cada tipo de alimento. Y en una forma análoga, el investigador ha de adaptar sus procedimientos de análisis de los datos a la naturaleza originaria de sus observaciones. Algunos instrumentos de reunión de datos arrojan datos iniciales en forma de números, a los cuales se pueden aplicar directamente técnicas estadísticas. Otros instrumentos, como los cuestionarios de respuesta libre y las entrevistas, arrojan datos iniciales que requieren de tratamiento y codificación adicionales, antes de que se pueda comenzar a realizar con ellos cualquier análisis estadístico. Diferentes clases de datos requieren tipos diferentes de análisis antes de quedar reducidos a una forma en la que puedan ser interpretados (Girden, 1996; Stern & Kalof, 1996).

En la situación más sencilla de investigación hay una variable dependiente y, por lo menos, una variable independiente con dos variables. La tarea del investigador consiste en determinar el grado en que los datos de la investigación reflejan una relación entre las variables independiente y dependiente; o, dicho en otros términos, el análisis estadístico de los datos persigue determinar si dos grupos que difieren en el lugar que ocupan en la variable independiente, difieren también en la variable dependiente. Tanto en la relación entre las variables como la ausencia de relación entre las mismas, pueden resultar enmascaradas por dos clases de errores: los errores constantes y los errores variables. Los errores constantes son producidos por variables extrañas que afectan de manera constante los resultados de una investigación; por ejemplo afectan siempre de la misma manera la relación (o la falta de relación) entre dos variables (independiente y dependiente), o afectan siempre de la misma manera (favorable o desfavorablemente) a los grupos de la investigación. Los errores variables, en cambio, son producidos por variables extrañas que afectan de manera variable los resultados de la investigación; se trata de variables extrañas que actúan aleatoriamente sobre todos los sujetos de la investigación y, que por esa misma razón, sus efectos tienden, a largo plazo, a anularse mutuamente.

No existen fórmulas simples para prevenir los errores constantes. Mediante su entrenamiento y experiencia, el investigador aprende a anticipar muchas de las fuentes más graves de errores constantes, pero nunca tienen una garantía absoluta de que ha eliminado toda posibilidad de que alguna variable extraña pueda estar produciendo un error constante. En realidad, una gran parte del progreso alcanzado en cualquier campo de la investigación científica depende del descubrimiento de las fuentes de tales errores constantes. Salvo algunos descubrimientos científicos excepcionales, puede decirse que en general la mayoría de los descubrimientos científicos eliminan alguna

...

Descargar como (para miembros actualizados)  txt (25.5 Kb)  
Leer 15 páginas más »
Disponible sólo en Clubensayos.com