INFORME DEL BIG DATA Y EL COVID-19 EN CHILE
Enviado por paulinantonia • 22 de Junio de 2021 • Tarea • 4.439 Palabras (18 Páginas) • 61 Visitas
UNIVERSIDAD DE LA SERENA
FACULTAD DE INGENIERÍA
DEPARTAMENTO DE INGENIERÍA EN OBRAS CIVILES
ELECTIVO DE FORMACION PROFESIONAL
INFORME DEL BIG DATA Y EL COVID-19 EN CHILE
INTRODUCCIÓN AL BIG DATA Y ANÁLISIS DE DATOS
Alumnas
Katty Arriagada Cordero
Elena Carvajal Ahumada
Camila Guzmán Ortiz
Paulina Velásquez Marín
Académico
Docente David Gómez Schwartz
La Serena, Región de Coquimbo.
Lunes 7 de junio 2021
Índice
Introducción 3
Objetivo General 4
Objetivos Específicos 4
Marco teórico 5
Marco general y oportunidad de la propuesta de Big data 9
Tipos de datos 11
Arquitectura conceptual y mix tecnológico 17
Beneficios de la implantación de la propuesta 26
Conclusión 27
Bibliografía 28
Introducción
El uso de la tecnología del Big Data ha sido utilizado desde hace mucho tiempo para obtener ideas y así dar soluciones a problemas, pero pocos tienen conocimiento de cuál es la función y el origen de este.
El Big Data se basa en el análisis de un gran conjunto de datos, donde se recolectan, se tratan y finalmente se analizan para el beneficio de la entidad o persona que requiera los datos, una de las ventajas de este proceso es el corto tiempo que necesita para analizar un gran volumen de datos en comparación a los métodos tradicionales que existen. En otras palabras, Big Data se caracteriza por el análisis de datos en grandes volúmenes, variedad y velocidad.
El termino de Big Data se comenzó a emplear y generalizar a fin de los años 90 pero en realidad este método ha sido utilizado desde hace muchos años atrás, incluso se ha llegado a pensar que desde el paleolítico se utiliza este método. Uno de los primeros pioneros del Big Data fue el científico Alan Turing, quien durante la segunda guerra mundial lidero un grupo de inteligencia en Bletchley Park, donde su objetivo era descifrar Enigma, una de las máquinas de cifrado que empleaba el ejército nazi. Este trabajo logro acortar entre 2 y 4 años la guerra.
Con el tiempo el Big Data tuvo muchos avances y uno de los más relevantes fue en el año 1989 donde se crea el WWW e internet y a su vez se abren los primeros caminos a la generación masiva de datos.
Hoy en día el Big Data tiene un puesto importante en la sociedad ya que se ha podido emplear en diferentes áreas como en la política, en el medio ambiente, en la productividad, en la vida personal y en la salud, un claro ejemplo es el importante rol que ha cumplido en la pandemia que vive el mundo hoy en la actualidad ya que nos ha facilitado analizar los datos de todo el mundo y así buscar las medidas necesarias para poder combatir el COVID-19 de la mejor manera.
La INE Chile (Instituto Nacional de Estadísticas) ha tenido un rol importante en el análisis de datos en esta pandemia gracias al convenio firmado con el Instituto Milenio Fundamentos de los Datos. Esto ha podido facilitar la realización de actividades como la investigación científica y tecnológica referida a bases de datos, algoritmos, inteligencia artificial, Big Data, entre otras temáticas aplicadas al desarrollo y producción de estadísticas. Es por este buen desempeño que la INE Chile ingreso al Directorio del Comité de Estadísticas y Política Estadística de la OCDE donde tiene el rol de conectar los países desarrollados con los países en desarrollo, ya que al tener acceso a metodología más avanzadas las comparte y las adapta a los países en vías de desarrollo.
Objetivo General
Identificar las herramientas del Big Data para crear modelos predictivos fiables y así desarrollar nuevas habilidades para hacer frente al Covid-19 en Chile.
Objetivos Específicos
1.- Definir marco general y oportunidad de la propuesta de Big Data.
2.- Identificar los tipos de datos y fuentes a utilizar en la propuesta.
3.- Conocer la arquitectura conceptual y mix tecnológico de la solución propuesta.
4.- Establecer los beneficios de la implantación de su propuesta.
Marco teórico
Big Data, ¿Qué es?
Cuando hablamos de Big Data nos referimos a conjuntos de datos cuyo tamaño, complejidad y velocidad de crecimiento dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales. Estas características se pueden resumir en lo que se llaman las 5 Vs del Big Data: Volumen, Variabilidad, Velocidad, Veracidad y Valor.
Las 5 V’s del Big Data
Fig. N°1: Las 5 V’s del Big Data
1. Variedad
Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de integración de datos aumenta. La complejidad de los datos, es principalmente la estructura en cómo están conformados los datos, se pueden encontrar datos estructurados, semi estructurados o no estructurados.
Las fuentes de datos de Big Data son muy amplias como; datos relacionales (tablas, transacciones, datos legales, etc.), datos textuales encontrados en internet, datos sectoriales recopilados por empresas especializadas, datos experimentales, etc.
2. Volumen
Como ya hemos visto, el volumen de datos es enorme, y eso complica la ejecución de un proceso de calidad de datos dentro de un tiempo razonable. Además, el volumen de los datos aumenta exponencialmente.
Es difícil recolectar, limpiar, integrar y obtener datos de alta calidad de forma rápida. Se necesita mucho tiempo para transformar los tipos no estructurados en tipos estructurados y procesar esos datos.
Se habla de volumen en cantidad de datos y en cantidad de espacio ocupado donde están los bytes, mega byte, giga byte, hasta la zeta byte.
3. Velocidad
La velocidad es algo sumamente subjetivo. Con el crecimiento del Internet de las Cosas, los datos llegan a las empresas a una velocidad sin precedentes y deben ser manejados de manera oportuna. Las etiquetas RFID, los sensores y los medidores inteligentes están impulsando la necesidad de manejar estos torrentes de datos en tiempo casi real.
4. Valor
El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos y utilizarlos para
...