INTRODUCCION INTELIGENCIA ARTIFICIAL
Enviado por dharnux • 11 de Julio de 2011 • 4.488 Palabras (18 Páginas) • 1.537 Visitas
I. INTRODUCCIÓN
Existe actualmente una tendencia a establecer un nuevo campo de las ciencias de la computación que integre los diferentes métodos de resolución de problemas que no pueden ser descritos fácilmente mediante el enfoque algorítmico tradicional.
Una de las múltiples técnicas que emplea la Inteligencia Artificial para simular el comportamiento inteligente de los seres humanos, son las denominadas Redes Neuronales Artificiales.
Las redes neuronales son una forma de emular las características propias de los seres humanos como la capacidad de memorizar y asociar hechos. Si examinamos con atención aquellos problemas que no pueden expresarse a través de un algoritmo nos daremos cuenta de que todos ellos tienen una característica común que es la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así parece claro que una forma de aproximarse al problema consista en la construcción de sistemas que sean capaces de reproducir esta característica humana.
En definitiva las redes neuronales artificiales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto de sistema capaz de adquirir conocimiento a través de la experiencia.
Una red neuronal es “Un nuevo sistema para el tratamiento de la información cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano, la neurona”.
II. SURGIMIENTO Y EVOLUCION
En las redes neuronales el conocimiento se incorpora mediante el aprendizaje a partir de ejemplos.
Las redes neuronales artificiales son ampliamente utilizadas en la actualidad por ejemplo para el escaneo de imágenes, reconocimiento de patrones, problemas de optimización, clasificación de datos financieros, apoyo al diagnóstico médico, etc.
Un computador convencional es una máquina que ejecuta una serie de instrucciones de forma secuencial, siendo capaz de realizar complicadas operaciones lógicas y aritméticas de una forma muy rápida, mucho más que el cerebro humano.
Pese a ello, existen tareas sencillas como el reconocimiento de patrones, que ni los grandes supercomputadores son capaces de resolver de un modo eficiente, mientras que el cerebro lo viene haciendo desde hace millones de años con suma facilidad y eficiencia.
Por esta razón, algunos científicos han vuelto la vista hacia el cerebro tratando de estudiarlo desde el punto de vista de la computación. La estructura del cerebro es radicalmente diferente a la del computador convencional. No está compuesto por un único microprocesador altamente complejo y eficiente, sino por miles de millones de ellos, las neuronas, que realizan de modo impreciso y relativamente lento un tipo de cálculo muy simple.
Cerebro - Computador convencional
Velocidad de Proceso: 10-2 seg. (100 Hz) - 10-9 seg. (1000 MHz)
Estilo de Procesamiento: paralelo - Secuencial
Número de Procesadores: 10 11 - 1014 - Pocos
Conexiones: 10,000 por procesador - Pocas
Almacenamiento del conocimiento: Distribuido - Direcciones fijas
Tolerancia a fallos: Amplia - Nula
Tipo de control del proceso: Auto organizado - Centralizado
Los sistemas neuronales artificiales, surgieron con la idea de tomar las características esenciales de la estructura neuronal del cerebro para crear sistemas que lo emularan en parte, mediante sistemas electrónicos. Estos sistemas están compuestos por multitud de pequeños procesadores simples, a los que se denomina neuronas artificiales.
Las redes neuronales operan sobre la base de reconocimiento de patrones, y pueden adquirir, almacenar y utilizar conocimiento experimental, obtenido a partir de ejemplos. Esta forma de adquirir el conocimiento es una de sus características más destacables: no se programa de forma directa, como en los sistemas expertos, sino que se adquiere a partir de ejemplos, por ajuste de parámetros de las neuronas mediante un algoritmo de aprendizaje.
En cuanto al modo interno de trabajo las redes neuronales son modelos matemáticos que utilizan procedimientos iterativos, en general para minimizar funciones de error.
III. PANORAMA HISTORICO
En esta presentación tan solo citaremos muy rápidamente la trayectoria de las redes neuronales.
• McCulloch y Pitts dio origen a los modelos conexionista definiendo formalmente la neurona en 1943 como una maquina binaria con varias entradas y salidas, y de cómo estas podrían realizar cálculos lógicos en redes neuronales. “La estructura de la red no cambia con el tiempo”.
• Hebb, definió en 1949 dos conceptos muy importantes y fundamentales que
han pesado en el campo de las redes neuronales, basándose en investigaciones psico - fisiológicas:
- El aprendizaje se localiza en las sinapsis.
- La información se representan en el cerebro mediante un conjunto de neuronas activas o inactivas.
La primera conferencia sobre IA en la cual se discutió sobre la capacidad de las computadoras para simular el aprendizaje fue en 1956 en Dartmouth. A partir de ahí investigadores han desarrollado distintos tipos de redes neuronales :
• 1960, Widrow y Hoff.- Desarrollo un modelo llamado Adaline (Adaptative Linear Element) reconocimiento de patrones binarios como por ejemplo predecir el siguiente bit en una línea telefónica y el Madaline (Multiple Adaline), esta es la primera aplicación de las redes, a problemas reales como son los filtros adaptativos para eliminar ecos en las líneas telefónicas.
• 1962, Rosemblatt.- El Perceptrón es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida.
• 1969, Minsky y Papert.- Una seria crítica del Perceptrón que dada su naturaleza lineal tenía bastantes limitaciones, provocó una caída en picado de las investigaciones y una época gris para las redes neuronales.
• 1974, Paul Werbos- Desarrollo la idea básica del algoritmo de aprendizaje hacia atrás (Backpropagation), Cuyo significado quedo aclarado definitivamente en el años 1985.
• 1982, Hopfield.- Elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg.
• 1984, Kohonen.- Mapas de Kohonen, Este investigador desarrolló redes basadas en aprendizaje competitivo, con una idea
...