Inteligencia Computacional Y Creacion De Sistemas Inteligentes
Enviado por ser0125 • 31 de Octubre de 2013 • 2.535 Palabras (11 Páginas) • 626 Visitas
Inteligencia computacional y creación de sistemas inteligentes
La Inteligencia Computacional (IC) combina elementos de aprendizaje, adaptación, evolución y Lógica difusa para crear programas que son, en cierta manera, inteligentes. La investigación en Inteligencia Computacional no rechaza los métodos estadísticos, pero muy a menudo aporta una vista complementaria.
En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes."
Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:
• Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
• Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.
• Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
• Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
Actualmente, la Inteligencia Computacional es una línea de investigación con un gran potencial ya que la automatización de la mayoría de las actividades del ser humano como operaciones con tarjetas de crédito, llamadas telefónicas de una compañía, reservas de viajes vía web, sistemas recomendadores, sistemas inteligentes de ayuda a la decisión, sistemas de control y gestión inteligente, bioinformática, etc., ha dado lugar a una explosión de datos y de problemas por resolver.
Por ejemplo, actualmente se están investigando temas como el desarrollo de sistemas conversacionales que interactúen con el usuario mediante lenguaje natural, la comprensión de textos expresados en lenguaje natural, la búsqueda inteligente de información en Internet o el aprendizaje automático de protocolos de actuación para la toma de decisiones.
Más recientemente, se ha propuesto y desarrollado el paradigma de los sistemas inteligentes adaptativos que consideran la evolución de un individuo y el auto-aprendizaje que imita la forma en todos los seres vivos, y, sobre todo, los seres humanos aprenden de su experiencia y desarrollan sus propias reglas y su propio modelo del mundo que les rodea; aprenden a construir conceptos (a agrupar), predecir, clasificar y controlar los objetos y procesos. Este es uno de las aproximaciones más recientes de la IC, que es objeto de intensa investigación y desarrollo.
También existen muchas tareas básicas del ser humano que son de mucha complejidad en el ordenador: Por ejemplo ver, hablar y escuchar lo que nos permite aprender clasificar y reconocer.
La tecnología de los ordenadores avanza a mucha más velocidad que muchas otras tecnologías. Los ordenadores tienden a doblar su potencia cada dos años más o menos. Esta tendencia está relacionada con la ley de Moore, la cual dice que los transistores doblan su potencia cada 18 meses. Según el matemático Vinge, del cual hemos hablado en la anterior parte del artículo, solo es una cuestión de tiempo antes de que el hombre construya una máquina que pueda “pensar” como los humanos.
Pero el hardware es solo parte de la ecuación. Antes de que la inteligencia artificial se convierta en una realidad, alguien tendrá que desarrollar un software que permita una máquina analizar datos, tomar decisiones y actuar de forma autónoma. Se eso ocurre, podremos esperar a ver máquinas construyendo otras máquinas más rápidas y potentes.
Los avances de la tecnología se empezarían a mover a una velocidad asombrosa nunca vista por el ser humano. Las máquinas sabrían como mejorarse a si mismas. Habríamos creado una inteligencia sobrehumana. Los cambios serían tan súbitos que nos costaría seguirles los pasos.
En otras palabras, habríamos llegado a la singularidad. ¿Qué pasaría entonces? Vinge dice que sería imposible de saber. El mundo cambiaría su entorno de tal manera, que sería difícil saber con exactitud a qué punto llegaríamos. Vinge dice que aunque no es fructífero sugerir posibles escenarios, aun así es bastante divertido.
Puede que vivamos en un mundo donde cada persona se conectará mentalmente con una red de ordenadores con miles de mentes pensantes también conectadas. O puede que las máquinas realicen todas las tareas para nosotros y nos permitan vivir con total lujo durante toda nuestra vida.
Pero ¿qué ocurriría si las máquinas nos vieran como algo innecesario – o algo peor? Si las máquinas llegan al punto donde se puedan reparar ellas mismas o incluso crear versiones mucho mejores, ¿podrían llegar a la conclusión de los humanos son simplemente una molestia? Realmente es un escenario que asusta. ¿Podría ser cierta la versión de Vinge del futuro? ¿Hay alguna manera de evitarlo?
No todo el mundo piensa que es nuestro destino llegar a la singularidad que pregona Vinge en su estudio. Puede que incluso no sea posible físicamente lograr los avances necesarios para crear el efecto de la singularidad. Para comprender esto, debemos volver a revisar la ley de Moore, comentada antes. En los años sesenta, Gordon Moore, un ingeniero de semiconductores, propuso lo que ahora conocemos por la ley de Moore.
Notó que según pasaba el tiempo, el precio de los componentes de los semiconductores y su fabricación caían. En lugar de producir circuitos integrados con la misma cantidad de potencia que los anteriores por la mitad de su coste, los ingenieros se esforzaron a poner más transistores en cada circuito. La tendencia se convirtió en un ciclo, donde Moore predijo que esto continuaría hasta llegar a los límites físicos de lo que podemos alcanzar con los circuitos integrados.
La observación original de Moore fue que el número de transistores en una pulgada cuadrada dentro de un circuito integrado, se doblaría todos los años. Hoy en día, hemos visto que la densidad de los datos en uno de estos circuitos se dobla cada 18 meses. Los fabricantes ahora construyen transistores
...