Computo Visual Avanzado
Enviado por eortiz86 • 11 de Diciembre de 2020 • Ensayo • 6.127 Palabras (25 Páginas) • 71 Visitas
Computo Visual Avanzado
Su objetivo es crear tendencias de visualización de datos disruptivas y futuristas que modelen las futuras tendencias para la representación e interpretación de la información para agilizar los procesos cognitivos y de toma de decisiones.
El problema radica en la cantidad de información que se produce día a día en donde se estima que cada segundo se genera 1.7 MB de datos por segundo en 2020 (Source:Domo) y diariamente se producen 2.5 quintillones de bytes de datos producidos por los humanos por dia (souce: Social Media Today)
- Cada persona crea 1,7 MB de datos por segundo durante 2020.
- Solo en los últimos dos años, se ha creado el asombroso 90% de los datos del mundo.
- Los seres humanos producen 2,5 trillones de bytes de datos todos los días.
- Los seres humanos generarán 463 exabytes de datos cada día a partir de 2025.
- Cada día se comparten 95 millones de fotos y videos en Instagram.
- Para fines de 2020, 44 zettabytes conformarán todo el universo digital.
- Todos los días se envían 306,4 mil millones de correos electrónicos y se realizan 5 millones de Tweets. (source: https://techjury.net/blog/how-much-data-is-created-every-day/ https://www.northeastern.edu/graduate/blog/how-much-data-produced-every-day/ )
Esto genera un escenario donde para 2025 tendremos aproximadamente 463 exabytes de datos generados por dia (source: Ranconteur) según la cantidad de datos que se mueven por medio de video, comunicaciones y redes sociales. Según datos de STATISTA existen 4.57 billones de usuarios de internet activos en el día.
Sumando todos estos panoramas podremos ver que el almacenamiento de la información será un gran problema en el futuro, así como también lo será el proceso de interpretación y de toma de decisiones. Los procesos tradicionales para la generación de visualización de datos corresponden a la parte superior de un almacén de datos que se consume en función de requerimientos o preguntas específicas, dejando al usuario con una visibilidad parcial del ecosistema de información.
Actualmente la velocidad de comprensión de la información es primordial. Esto ligado a la multiplicidad de fuentes de datos de distintos tipos, información tradicional presentada en datos estructurados, información no estructurada, variables de lógica difusa y metadatos crean un escenario perfecto para ser abordado mediante la Teoría de la Complejidad.
Se entiende como Sistemas Complejos a aquellos sistemas con un gran número de componentes que interactúan entre sí (agentes, procesos, entradas, salidas,etc). Su actividad agregada es NO lineal (No derivable de la suma de la actividad de los componentes individuales). El TODO es más importante que la suma de las partes. La investigación en ciencias de la complejidad es multidisciplinaria.
Basado en esta problemática se creó la tecnología Geckode como un conjunto de bibliotecas y lenguajes basados en proyectos de visualización de datos open source y se generó una modernización de todas las herramientas tradicionales para construir motores que permite visualizar fuentes diversas, integrarlas, enlazarlas y transformarlas en un proceso conocido como vETL, como una nueva tecnología para procesar los datos de forma visual. De forma paralela se acuñó el concepto de Applied Visual Complexity como la premisa teórica para el entendimiento y comprensión del big data.
la tecnología Geckode es precursora rompiendo los paradigmas del Big Data tradicional y la Visualización de Datos, en donde el usuario interactúa en espacios 3D desde los cuales es posible manipular e interpretar los datos.
La premisa es innovadora frente a las teorías actuales en donde para crear una visualización de datos es necesario segmentar la información y preparar un extracto para poder presentarla. Applied Visual Complexity brinda un nuevo enfoque basado en el tradicional método científico en donde la observación es el primero de los pasos en la cadena. Esto se resuelve mediante la plataforma vOne diseñada para conectar la fuente de datos al Modelo Visual de Datos y permitir, mediante reglas de negocio, algoritmos y teoría de la complejidad representar información para la toma de decisiones de forma más rápida y precisa.
Cada una de las fuentes de datos que pueden ser bases de datos, archivos de trabajo, multimedia, metadatos, servicios web, streams de datos en tiempo real, por mencionar algunos, es integrada como capa de información permitiendo crear Modelos Visuales.
Cada modelo visual abarca un tema. Cada uno de los registros del set de datos es conocido como objeto de estudio. Applied Visual Complexity propone la presentación del 100% de los datos de manera individual al usuario final para permitirle desarrollar procesos de atención, cognición, comprensión y la interpretación de los mismos para la toma efectiva de decisiones.
De acuerdo con el autor TOR NORRETRANDERS, en el libro The User Illusion, el usuario al que presentamos la información tiene mayores problemas si requiere una forma de pensamiento matemático, estadística y consciente; sin embargo si utilizamos la visión para recibir la información de manera subconsciente se incrementa la comprensión y la capacidad de procesar el contenido en ambos sistemas de pensamiento. Si consideramos que la visualización de un objeto toma alrededor de 500 milisegundos en el cerebro para determinar color, forma, movimiento y posición, nos enfrentamos a una velocidad sumamente difícil de superar por parte de los equipos de cómputo actuales.
Applied Visual Complexity
Applied Visual Complexity (AVC) es un concepto que engloba diferentes herramientas y tecnologías para la visualización de datos y que incluye conceptos de la Teoría de la Complejidad.
Diferentes Instituciones y empresas han trabajado por más de 20 años en la visualización avanzada de datos, sin embargo hasta años recientes ha sido posible gracias al avance de las capacidades gráficas en los equipos de cómputo, particularmente en el ámbito de videojuegos ya que esto permite representar el 100% de un conjunto de datos en pantalla, en especial cuando el número de registros supera los cientos de miles y llega a los millones.
...