Impacto de la computación cognitiva en la ingeniería de requerimientos
Enviado por brucearielch • 18 de Octubre de 2017 • Trabajo • 4.094 Palabras (17 Páginas) • 273 Visitas
Bruce Chung Ulloa
Estudiante de ATI
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
brucechungulloa@outlook.com
Diana Zuñiga D’Avanzo
Estudiante de ATI
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
diana031096@yahoo.es
Oscar Vargas Segura
Estudiante de ATI
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
osdavargas@gmail.com
Nelson Ramírez Campos
Estudiante de ATI
Instituto Tecnológico de Costa Rica
Cartago, Costa Rica
brucechungulloa@outlook.com
Computación Cognitiva y su Impacto en la Ingeniería de Requerimientos.
[1]
Resumen – La nueva era de computación, la era cognitiva, implica una serie de cambios en los procesos de desarrollo de software, entre ellos la Ingeniería de Requerimientos, una función interdisciplinaria que media entre los dominios del adquiridor y el proveedor con el fin de establecer y mantener los requerimientos a ser satisfechos por un sistema, este trabajo de investigación reflejará mediante una enfoque cualitativo el impacto de la era de la computación cognitiva en la Ingeniería en Requerimientos.
Palabras clave — computación cognitiva; ingeniería en requerimientos; era cognitiva
I. INTRODUCCIÓN Y MOTIVACIÓN
Las ciencias de la computación nacen en el siglo IX con la era de la tabulación, la cual se caracterizó por utilizar sistemas mecánicos de propósito específico que realizaban cálculos matemáticos, dichos sistemas empelaban tarjetas perforadas como entrada y almacenamiento de datos, a partir de estas herramientas se podía instruir a la maquina sobre el siguiente paso a seguir, estos sistemas fueron en su mayoría calculadoras que realizaban operaciones complejas [1].
En cuanto a la interacción entre sistema y usuario se utilizaba un sistema binario de bajo nivel, esto significaba que una instrucción en lenguaje natural implicara diversas instrucciones en lenguaje máquina.
La segunda era de la computación data de 1950 hasta la actualidad, esta época se caracteriza por el cambio de sistemas mecánicos, primeramente, por sistemas electrónicos con propósitos militares impulsados por la segunda guerra mundial; Posteriormente, gracias a la guerra fría, se dio un gran avance tecnológico con la invención del transistor y el microprocesador, esta tecnología a permitió aumentar la capacidad de procesamiento lo que significó una mejora en la utilización de lenguajes de programación que se acercan cada vez más al lenguaje natural.
Sin embargo, pese al gran avance que se ha tenido en esta era, la computación sigue siendo determinística, es decir, se basa en reglas programados y los resultados están en función a la programación previa [1].
La era cognitiva nace en el año 2011, con la incursión de IBM Watson, el primer sistema cognitivo, Watson fue presentado a la sociedad en el concurso de televisión estadounidense “Jeopardy!”, donde ganó a los dos mejores concursantes de la historia del programa. Desde ese día, Watson se ha convertido en una tecnología comercial accesible a través de la nube y que cuenta con clientes en 17 sectores de la industria distintos y 30 países del mundo [2].
Watson es un sistema cognitivo que se caracteriza por procesar información similar al cerebro humano, desarrollando de esta manera entendimiento, razonamiento y aprendizaje contextualizado. La meta de los sistemas cognitivos es iluminar aspectos del mundo que han sido invisibles previamente, reconociendo patrones en los datos no estructurados y posibilitar la toma de decisiones basada en la inferencia de nuevos conocimientos. [1]
Este nuevo paradigma irrumpe en la programación generando una nueva era, un nuevo mercado y una nueva manera ver la computación.
II. MARCO TEORICO
Computación Cognitiva
La computación cognitiva es un enfoque tecnológico que permite a los seres humanos colaborar con las máquinas. Se observa la computación cognitiva como un análogo al cerebro humano, debe analizar en contexto todos los tipos de datos, desde datos estructurados en bases de datos hasta datos no estructurados en texto, imágenes, voz, sensores y vídeo. Son máquinas que operan a un nivel diferente al de los sistemas informáticos tradicionales porque analizan y aprenden de estos datos. Según el Dr. Adrian Bowles (2015), un sistema cognitivo tiene tres principios fundamentales como se describe a continuación:
- Aprender. Aprender un sistema cognitivo. El sistema aprovecha los datos para hacer inferencias sobre un dominio, un tema, una persona o un problema basado en el entrenamiento y observaciones de todas las variedades, volúmenes y velocidad de los datos.
- Modelo. Para aprender, el sistema necesita crear un modelo o representación de un dominio (que incluye datos internos y potencialmente externos) y suposiciones que determinan qué algoritmos de aprendizaje se utilizan. La comprensión del contexto de cómo los datos encajan en el modelo es clave para un sistema cognitivo.
- Generar hipótesis. Un sistema cognitivo supone que no hay una sola respuesta correcta. La respuesta más adecuada se basa en los propios datos. Por lo tanto, un sistema cognitivo es probabilístico. Una hipótesis es una explicación candidata para algunos de los datos ya entendidos. Un sistema cognitivo utiliza los datos para entrenar, probar o marcar una hipótesis. (p. 1).
Tres conceptos importantes ayudan a hacer un sistema cognitivo: la visión contextual del modelo, la generación de hipótesis (una explicación propuesta de un fenómeno) y el aprendizaje continuo a partir de datos a través del tiempo.
Sistema de computación cognitiva.
Marcia A. Kaufman (2015) indica que:
La computación cognitiva consiste en herramientas y técnicas, incluyendo Big Data y análisis, machine learning, Internet de las Cosas (IoT), procesamiento de lenguaje natural (PNL), inducción causal, razonamiento probabilístico y visualización de datos. Los sistemas cognitivos tienen la capacidad de aprender, recordar, provocar, analizar y resolver de una manera que sea contextualmente relevante para la organización o para el usuario individual. (p. 4).
...