DISEÑO DE REDES NEURONALES ARTIFICIALES
Enviado por siyaliho18 • 5 de Diciembre de 2017 • Apuntes • 9.682 Palabras (39 Páginas) • 299 Visitas
Módulo IV:[pic 7][pic 8][pic 9][pic 10]
Diseño Automático de Controladores Difusos
Tema 9: Diseño con
Redes Neuronales Artificiales
[pic 11][pic 12][pic 13][pic 14][pic 15]
Tema 1 Tema 3 Tema 5 Tema 7[pic 16][pic 17][pic 18][pic 19][pic 20][pic 21]
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tema 2 Tema 4 Tema 6 Tema 8 Tema 10[pic 22][pic 23][pic 24][pic 25][pic 26]
- Módulo I: Introducción
- Módulo II: Teoría de Conjuntos Difusos
- Módulo III: Control Difuso
- Módulo IV: Diseño Automático de Controladores Difusos
- Tema 6: Introducción al diseño automático (2h)
- Tema 7: Diseño automático ad hoc (2h)
- Tema 8: Diseño automático con algoritmos genéticos (3h)
- Tema 9: Diseño automático con redes neuronales (3h)[pic 27][pic 28]
- Tema 10: Otras técnicas de diseño automático (2h)
[pic 29][pic 30][pic 31][pic 32][pic 33]
Conceptos Básicos sobre Redes Neuronales Artificiales (RNAs)
Introducción
- Perceptrón y Adaline
- Red neuronal artificial
- Perceptrón multicapa
- Aprendizaje por retro-propagación
- Otros tipos de RNAs
- Diseño de Controladores Difusos con Redes Neuronales Artificiales
- Sistemas Neuro-Difusos
- ANFIS
[pic 34][pic 35][pic 36][pic 37][pic 38]
Índice
Redes neuronales artificiales (RNAs):
Modelo computacional de las operaciones del cerebro humano[pic 39][pic 40]
- Nodos conectados mediante enlaces
- Pesos como memoria a largo plazo
- Capacidad de aprendizaje: actualización de los pesos
- Simple y fácil de aplicar, pero se obtienen modelos de caja negra
Índice
McCulloch y Pitts (1943)
- Propusieron un modelo de una neurona[pic 41][pic 42]
- Modelo de McCulloch-Pitts
Hebb (1949)
- Se presenta el funcionamiento de la regla de aprendizaje fisiológico mediante modificación sináptica
Rosenblatt (1958)
- Se introduce un nuevo enfoque al problema de reconocimiento de patrones; perceptron
Widrow y Hoff (1960)
- Se introduce el algoritmo de mínimos cuadrados (LMS)
- Se formula el Adaline (elemento lineal adaptativo)
[pic 43][pic 44][pic 45][pic 46][pic 47]
Índice
Minsky (1961)
- Primer artículo que contiene una sección extensa a lo que actualmente se denomina Redes Neuronales[pic 48][pic 49]
Widrow (1962)
- Se propone Madaline (múltiles adalines)
Minsky and Papert (1969)
- Se demuestran los límites fundamentales según los cuales una capa de perceptrones no puede calcular el problema del XOR
En 1970s
- Década de inactividad de las RNAs
Grossberg (1980)
- Principio de auto-organización, llamado resonancia adaptativa
- Se proporciona la base de ART (Teoría de Resonancia Adaptativa)
Índice
Hopfield (1982)
- Se usa la idea de la función de energía para formular el cálculo realizado por redes recurrentes[pic 50][pic 51]
- Redes estables dinámicas
Barto, Sutton y Anderson (1983)
- Se propone el Aprendizaje por Refuerzo
Rumelhart, Hinton, Williams (1986)
- Se propone el algoritmo de retro-propagación (back- propagation)
Broomhead y Lowe (1988)
- Se propone la Red de Funciones de Base Radial (radial basis function, RBF)
Índice
Señal eléctrica
Dendrita
Cuerpo de la célula (soma)[pic 52]
Axón
Señal química
Sinapsis
Señal eléctrica
El cerebro humano contiene aproximadamente 1.5x1010 neuronas[pic 53][pic 54]
- Cada neurona recibe señales de 104 sinapsis
Índice
Componentes:
- Un conjunto de enlaces de entrada desde otros nodos[pic 55][pic 56]
- Un conjunto de pesos que ponderan cada entrada
- Una salida
- Una función de activación, generalmente no lineal
x1
x2
Entrada
xN
w1
v y[pic 57][pic 58][pic 59][pic 60][pic 61][pic 62]
w2[pic 63]
Salida[pic 64]
wN
⎛ N ⎞
y = f ⎜ ∑ w i x i − θ ⎟
⎝ i =1 ⎠
Índice
Tipos de funciones de activación no lineales
[pic 65] [pic 66] [pic 67]
Limitador estricto[pic 68][pic 69]
Rampa
Función sigmoidea
Índice
- Perceptrón: consiste en una única neurona con pesos sinápticos ajustables
- Se usa la función de activación Limitador Estricto[pic 70][pic 71]
Umbral[pic 72]
x1 w1
θ
Función de
-1 activación
x2 w2 ∑[pic 73]
...