ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Redes Neuronales


Enviado por   •  28 de Mayo de 2013  •  334 Palabras (2 Páginas)  •  467 Visitas

Página 1 de 2

Práctica de Laboratorio Nº16

Fundamentos de redes Neuronales

1. Objetivos.

- Conocer el comportamiento de las funciones dentro de una red neuronal.

- Aprender a realizar aplicaciones con redes neuronales.

2. Procedimiento.

Analizar el comportamiento de las siguientes funciones:

*Función de Activación Tangente Hiperbólica

x= [-3:0.1:3];

y = tanh(x);

plot(x,y)

Title ('Función de Activación Tangente Hiperbólica')

xlabel ('x')

ylabel ('tanh(x)')

*Función de Activación Logística

x= [-5:0.1:5];

y = logsig(x)

plot(x,y)

Title ('Función de Activación Logística')

xlabel ('x')

ylabel ('logsig(x) ')

*Para un vector de entrada

x= [1 0 1]

purelin(x)

tanh(x)

logsig(x)

satlin(x)

satlins(x)

hardlim(x)

Identifique las siguientes curvas.

*Una neurona

*Una neurona puede describirse de la siguiente forma.

x= [2 4 6]' *Observe el apóstrofe para indicar la matriz transpuesta.

w= [0.5 -0.25 0.33; 0.2 -0.75 -0.5]

b= [0.4 -1.2]'

y= tanh (w*x+b)

*Otra forma de describir la neurona anterior es la siguiente:

x= [1 2 4 6]'

w= [0.4 0.5 -0.25 0.33;-1.2 0.2 -0.75 -0.5]

y= tanh (w*x)

**Perceptron de Rosenblatt

*Cuando la synapsis de entrada y de salida estan activas, la intensidad de las conexiones entre las entradas y salidas pueden ser enriquecias.

*La regla es la siguiente:

if y= set point w = w; % correcion de salida no cambia

else y= 0 w = w+x ; % Set poin = 1 , se enriquecen los pesos

else w = w-x ; % Set poin = 1 , se reducen los pesos

La polarización (bias) es actualizada con u nodo con entrada 1. La función trainpt1() implementa el algoritmo de aprendizaje.

[w,b] = trainpt1(x,t,wb)

**

w= [0.3 0.7]

b=[-0.8]

x= [1;-0.3]

t=[1]

y = satlin ([w b]*[x ;1])

[w,b] = train (x,t,w,b)

y = satlin ([w b]*[x ;1])

Red muticapa

x= [2 4 6]' ;

w1= [0.2 -0.7 0.9; 2.3 1.4 -2.1; 10.2 -10.2 0.3];

w2 = [ 0.5 -0.25 0.33; 0.2 -0.75 -0.5];

b1=[0.5 0.2 -0.8]';

b2= [0.4 -1.2]';

y = w2*tanh(w1*x + b1)+b2

*Otra forma

x= [2 4 6]'

w1= [0.5 0.2

...

Descargar como (para miembros actualizados) txt (2 Kb)
Leer 1 página más »
Disponible sólo en Clubensayos.com