Redes Neuronales
Enviado por elgrone12 • 28 de Mayo de 2013 • 334 Palabras (2 Páginas) • 467 Visitas
Práctica de Laboratorio Nº16
Fundamentos de redes Neuronales
1. Objetivos.
- Conocer el comportamiento de las funciones dentro de una red neuronal.
- Aprender a realizar aplicaciones con redes neuronales.
2. Procedimiento.
Analizar el comportamiento de las siguientes funciones:
*Función de Activación Tangente Hiperbólica
x= [-3:0.1:3];
y = tanh(x);
plot(x,y)
Title ('Función de Activación Tangente Hiperbólica')
xlabel ('x')
ylabel ('tanh(x)')
*Función de Activación Logística
x= [-5:0.1:5];
y = logsig(x)
plot(x,y)
Title ('Función de Activación Logística')
xlabel ('x')
ylabel ('logsig(x) ')
*Para un vector de entrada
x= [1 0 1]
purelin(x)
tanh(x)
logsig(x)
satlin(x)
satlins(x)
hardlim(x)
Identifique las siguientes curvas.
*Una neurona
*Una neurona puede describirse de la siguiente forma.
x= [2 4 6]' *Observe el apóstrofe para indicar la matriz transpuesta.
w= [0.5 -0.25 0.33; 0.2 -0.75 -0.5]
b= [0.4 -1.2]'
y= tanh (w*x+b)
*Otra forma de describir la neurona anterior es la siguiente:
x= [1 2 4 6]'
w= [0.4 0.5 -0.25 0.33;-1.2 0.2 -0.75 -0.5]
y= tanh (w*x)
**Perceptron de Rosenblatt
*Cuando la synapsis de entrada y de salida estan activas, la intensidad de las conexiones entre las entradas y salidas pueden ser enriquecias.
*La regla es la siguiente:
if y= set point w = w; % correcion de salida no cambia
else y= 0 w = w+x ; % Set poin = 1 , se enriquecen los pesos
else w = w-x ; % Set poin = 1 , se reducen los pesos
La polarización (bias) es actualizada con u nodo con entrada 1. La función trainpt1() implementa el algoritmo de aprendizaje.
[w,b] = trainpt1(x,t,wb)
**
w= [0.3 0.7]
b=[-0.8]
x= [1;-0.3]
t=[1]
y = satlin ([w b]*[x ;1])
[w,b] = train (x,t,w,b)
y = satlin ([w b]*[x ;1])
Red muticapa
x= [2 4 6]' ;
w1= [0.2 -0.7 0.9; 2.3 1.4 -2.1; 10.2 -10.2 0.3];
w2 = [ 0.5 -0.25 0.33; 0.2 -0.75 -0.5];
b1=[0.5 0.2 -0.8]';
b2= [0.4 -1.2]';
y = w2*tanh(w1*x + b1)+b2
*Otra forma
x= [2 4 6]'
w1= [0.5 0.2
...