Trabajo De Termodinamica
Enviado por soniaylg • 18 de Julio de 2013 • 2.844 Palabras (12 Páginas) • 279 Visitas
Técnica de Análisis de los datos.
El análisis de datos consiste en la realización de las operaciones a las que el investigador someterá los datos con la finalidad de alcanzar los objetivos del estudio.
Todas estas operaciones no pueden definirse de antemano de manera rígida. La recolección de datos y ciertos análisis preliminares pueden revelar problemas y dificultades que desactualizarán la planificación inicial del análisis de los datos.
Sin embargo es importante planificar los principales aspectos del plan de análisis en función de la verificación de cada una de las hipótesis formuladas ya que estas definiciones condicionarán a su vez la fase de recolección de datos.
Existen dos grandes familias de técnicas de análisis de datos:
• Técnicas cualitativas: en las que los datos son presentados de manera verbal (o gráfica) - como los textos de entrevistas, las notas, los documentos…-
• Técnicas cuantitativas: en las que los datos se presentan en forma numérica
Estas dos modalidades son especies radicalmente diferentes y utilizan conocimientos y técnicas completamente diferenciadas.
Análisis Cualitativo
No existen reglas formales (al estilo de los métodos estadísticos) para la realización de análisis cualitativos. Sin embargo estos estudios suelen realizarse en las siguientes cuatro etapas:
1. Preparación y descripción del material bruto
2. Reducción de los datos
3. Elección y aplicación de los métodos de análisis
4. Análisis transversal de los casos estudiados (si hubiera más de uno).
1. Preparación y descripción del material bruto
Consiste en preparar la base documental completa y fácilmente accesible
→La información debe ser detectable (saber que existe) ubicable (dónde se encuentra) y trazable (dónde y cómo se obtuvo, cuáles son sus fuentes). Existe software que facilita algo esta tarea.
→La información suele ser voluminosa por lo que en muchos casos se requiere bastante trabajo de preparación.
→La prueba del éxito de esta etapa sería que un investigador ajeno a la investigación pudiera ejecutar las fases siguientes del análisis de datos a partir de la base documental.
2. Reducción de los datos
Se intenta reducir el volumen de los datos, despejando los componentes (las variables) de interés para la investigación. (puede ser sólo enumerativo como en el análisis de contenidos o más complejo como en el análisis semiótico)
Existen tres formas de realizar la reducción de datos:
1. La redacción de resúmenes: reduce la masa de información pero no utiliza métodos muy específicos (no es replicable por otros investigadores). En el resumen se procura identificar los conceptos relevantes y cómo éstos se relacionan entre sí.
2. La codificación: es el modo más desarrollado de reducción de datos. Consiste en atribuir categorías o conceptos a porciones del material bien circunscriptas y que presentan una alta unidad conceptual. Un buen sistema de codificación debe ser.
Inclusivo: exhaustivo (abarcar todas las posibilidades) y permitir que cada elemento tenga tantos códigos como sea necesario para la investigación
Adaptativo: debe permitir generar nuevos códigos cuando la investigación lo requiera
Abarcar varios niveles de abstracción: permitir categorías descriptivas y analíticas
3. Inducción: consiste en identificar temas a partir de la base de datos y luego realizar reagrupamientos a partir de estos temas.
3. Elección y aplicación de los métodos de análisis
En esta etapa se procede a la interpretación de los datos utilizando tres posibles métodos de análisis para detectar “patrones” a partir de los datos previamente organizados
1. Método de emparejamiento: compara una configuración teórica predicha con una configuración empírica observada. (Requiere Teoría previa y elección cuidadosa del caso o casos adecuados para poner la Teoría a prueba)
2. Método iterativo: Abordaje de los datos con mínima formalización teórica y construcción progresiva de una explicación. (Requiere conocimiento de las diferentes teorías que pueden explicar el fenómeno y la realización de un trabajo reiterado sobre los datos)
3. Método de análisis histórico (series temporales): Consiste en formular predicciones sobre la evolución en el tiempo de un fenómeno. Es un caso particular del método de emparejamiento en el que la Teoría es la predicción sobre el futuro.
Los tres métodos pueden utilizarse conjuntamente.
4. Análisis transversal
El análisis transversal apunta esencialmente a verificar si hay replica de resultados entre varios casos o situaciones.
Se agrega a las etapas precedentes cuando los datos cualitativos recolectados se refieren a varios casos del fenómeno (organizaciones, situaciones, individuos…)
Procede por comparación dónde cada situación es analizada de acuerdo al o los modos de análisis descritos precedentemente, de manera de captar si los modelos o patrones observados se reproducen.
Análisis Cuantitativo
Son los más conocidos. En muchos casos, cuando se requieren técnicas estadísticas muy complejas es conveniente solicitar el apoyo de especialistas (que pueden conocer mejor las técnicas, en particular sus alcances y limitaciones)
Existen dos niveles de análisis cuantitativos.
1. Análisis descriptivos
2. Análisis ligados a las hipótesis
1. Análisis descriptivos
Consiste en asignar un atributo a cada una de las variables del modelo teórico.
Los atributos pueden ser estadísticos descriptivos como la media, la mediana, la moda o la varianza, sobre cuyas propiedades existe gran conocimiento, experiencia y consenso, por lo que no es necesario realizar análisis de validez y fiabilidad. Pero en estadísticos menos conocidos (como por ejemplo la covarianza) puede ser necesario realizar este tipo de análisis.
Es necesario tener definidos los criterios a seguir en caso de porcentajes elevados de no respuesta y los eventuales sesgos que esto pueda representar.
El análisis descriptivo suele realizarse mediante la utilización de software estadístico como el SPSS, Systat, etc.
2. Análisis ligado a las hipótesis
Cada una de las hipótesis planteadas en el estudio debe ser objeto de una verificación.
Cuando los datos recolectados son de naturaleza cuantitativa, esta verificación se realiza con la ayuda de herramientas estadísticas que se definen sobre la base de 3 aspectos principales:
Las hipótesis que se desea verificar
Los diseños
...