REDES NEURONALES
Enviado por kysr • 19 de Abril de 2013 • 2.630 Palabras (11 Páginas) • 491 Visitas
REDES NEURONALES.
El hombre se caracterizado siempre por su búsqueda constante de nuevas vías para mejorar sus condiciones de vida de estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos como son la construcción de máquinas, calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resulten tediosas cuando se realizan a mano.
Charles Babbage trato de construir una maquina capaz de resolver problemas matemáticos.
En 1946 se construyó la primera computadora electrónica ENIAC. Desde entonces los desarrollos en este campo han tenido un auge espectacular.
Las redes neuronales no son más que otra forma de anular ciertas características propias de los humanos. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada así, parece claro que una forma de aproximarse al problema consiste en la construcción de sistemas que sean capaces de reproducir características humanas.
Un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano llamado NEURONA.
Las redes neuronales consisten de unidades de procesamiento que intercambian datos e información, se utilizan para reconocer patrones, incluyendo imágenes, manuscritos, secuencias del tiempo y tienen capacidad de aprender y mejorar su funcionamiento.
Una primera clasificación de los modelos de redes neuronales podría ser atendiendo a su similitud con la realidad biológica:
a) El modelo de tipo biológico: este comprende las redes que tratan de similar los sistemas neuronales biológicos así como las funciones auditivas y algunas vacías de la visión.
b) El modelo aplicado a este modelo no tiene por qué guardar similitud con los sistemas biológicos.
HISTORIA DE LAS REDES NEURONALES
Conseguir, diseñar y construir maquinas capaces de realizar procesos con cierta inteligencia ha sido uno de los principales objetivos de los científicos a lo largo de la historia.
En un principio los esfuerzos estuvieron dirigidos a la obtención de autómatas en el sentido de máquinas que realizaban alguna función típica de los seres humanos.
A pesar de disponer herramientas y lenguajes de programación diseñados expresamente para el desarrollo de máquinas inteligentes, existe un enorme problema que limita los resultados que se pueden obtener, estas máquinas se implementan sobre computadoras basadas en la filosofía de Von Neumann y que se apoya en una descripción secuencial de proceso de información y su tratamiento.
Una máquina que está dispuesta de realizar tareas mecánicas de forma rápida pero capaz de obtener resultados aceptables cuando se trata de tareas.
No se trata de construir maquinas que compitan con los seres humanos, sino que realicen ciertas tareas de rango intelectual con que ayudarle, principio basado en la inteligencia artificial.
Las primeras explicaciones teóricas sobre el cerebro y el pensamiento ya fueron dadas ya por Platón (427-347 a.C.) y Aristóteles (348-422 a.C.). Las mismas ideas también las mantuvo Descartes (1569-1650) y los filósofos empiristas del siglo XVIII.
Clasificación:
La clase de las llamadas máquinas cibernéticas, a la cual la computación neuronal pertenece, tiene más historia de la que se cree: Herón (100 a.C) construyó un autómata hidráulico.
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas.
1949 - Donald Hebb. Escribió un importante libro: La organización del comportamiento, en el que se establece una conexión entre psicología y fisiología. Fue el primero en explicar los procesos del aprendizaje desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría.
1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente.
1960 - Bernard Widrow/Marcial Hoff. Desarrollaron el modelo Adaline. Esta fue la primera red neuronal aplicada a un problema real que se ha utilizado comercialmente durante varias décadas.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas.
1967 - Stephen Grossberg. Realizó una red: Avalancha, que consistía en elementos discretos con actividad que varía en el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades como reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
1969 - Marvin Minsky/Seymour Papert. Probaron (matemáticamente) que el Perceptrón no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real. James Anderson, que desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales que sumaban sus entradas. Este modelo se basa en el principio de que las conexiones entre neuronas son reforzadas cada vez que son activadas. Anderson diseñó una potente extensión del Asociador Lineal, llamada Brain State in a Box (BSB).
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation).
1977 - Stephen Grossberg. Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.
1977 - Teuvo Kohonen. Desarrolló un modelo similar al de Anderson, pero independientemente.
1980 - Kunihiko Fukushima. Desarrolló un modelo neuronal para el reconocimiento de patrones visuales.
1985 - John Hopfield. Provocó
...