ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

CAPÍTULO I PERCEPTRON


Enviado por   •  17 de Septiembre de 2020  •  Práctica o problema  •  905 Palabras (4 Páginas)  •  138 Visitas

Página 1 de 4

CAPÍTULO I

PERCEPTRON

I.1 Conceptos básicos

En la siguiente figura se muestra un tipo de neurona que se llama perceptrón con entrada escalar [pic 1]

[pic 2][pic 3]

La entrada se multiplica por el peso escalar w, para formar el término  que es una entrada el sumador. La otra entrada 1 se multiplica por el sesgo b. La salida del sumador, es[pic 4][pic 5]

[pic 6]

La salida a la función de transferencia , está dada por[pic 7]

[pic 8]

Así, para,

,,  y [pic 9][pic 10][pic 11][pic 12]

[pic 13]

La entrada p contiene información;  y  son parte del diseño para obtener la salida requerida. [pic 14][pic 15]

En general las funciones de activación son no lineales. Se ha experimentado sobre muchas de estas para su uso en problemas de ingeniería, las más importantes son

Función

Regla

Icono

Función Matlab

Límite duro

[pic 16]

[pic 17]

[pic 18]

hardlim

Límite duro simétrico

[pic 19]

[pic 20]

[pic 21]

hardlims

Lineal

[pic 22]

[pic 23]

purelin

Lineal saturado

[pic 24]

[pic 25]

[pic 26]

[pic 27]

satlin

Lineal saturado simétrico

[pic 28]

[pic 29]

[pic 30]

[pic 31]

satlins

Log-sigmoide

[pic 32]

[pic 33]

logsig

Sigmoide hiperbólico tangente

[pic 34]

[pic 35]

tansig

Lineal positivo

[pic 36]

[pic 37]

[pic 38]

poslin

Competitiva

  neurona con max n[pic 39]

todas las demás[pic 40]

[pic 41]

compet

Una neurona tiene generalmente más de una entrada. Sean  entradas,que forman el vector y se tienen pesosque forman la matriz renglón [pic 42][pic 43][pic 44][pic 45][pic 46][pic 47]

[pic 48]

donde

[pic 49]

(matriz renglón)[pic 50]

(vector columna)[pic 51]

b, n y a son escalares, entonces

[pic 52]

[pic 53]

Con esta notación se puede expresar el perceptrón multi-entrada como

[pic 54]

Ahora un perceptrón puede tener más de una neurona, como se muestra con el caso de R neuronas y una capa (‘layer’).

[pic 55]

Entonces    . Las funciones pueden ser distintas entre sí, o ser las mismas.[pic 56]

Donde  son vectores, W es una matriz de orden S x R[pic 57]

[pic 58]

Así   indica la conexión a la cuarta neurona de la segunda entrada.[pic 59]

En notación abreviada un red de una capa, S neuronas y R entradas es

[pic 60]

[pic 61]

Ahora consideramos el caso de múltiples capas. En este caso se usará un superíndice para las W dependiendo en que capa estén.

Sea el caso de 3 capas:

[pic 62]

Para 4 capas habrá 2 capas ocultas.

En forma abreviada el diagrama anterior se puede escribir de la siguiente manera:

[pic 63]

Donde

                                [pic 64][pic 65][pic 66]

Esto es

[pic 67]

Los perceptrones multicapa son muy poderosos. Para muchos problemas un perceptrón de 2 capas, una con función sigmoide y otra con función lineal, son suficientes para resolverlo.

En la mayoría de los casos no son necesarias más  de 3 capas.

Ejemplo:

Dada una neurona con 2 entradas y los parámetros [pic 68]

Calcular la salida considerando una función de transferencia con

  1. Saturación lineal
  2. Límite duro simétrico
  3. Log-sigmoide

Solución:

[pic 69]

  1. [pic 70]
  2. [pic 71]
  3. [pic 72]

Caso de 2 entradas

Consideremos el caso de 2 entradas escalares y una neurona con función limite duro simétrico:

[pic 73]

entonces [pic 74]

En este caso el perceptrón clasifica la entrada en dos categorías.

Por ejemplo, para pesos w11=-1 y w12=1 entonces

[pic 75]

Sea el caso particular, cuando b=-1 y n=0, entonces n=0 indica el punto de frontera, esto es:

[pic 76]

        [pic 77]

Es posible generalizar el resultado de que el perceptrón de una sola capa puede reconocer patrones que son linealmente separables.[pic 78]

...

Descargar como (para miembros actualizados) txt (6 Kb) pdf (701 Kb) docx (923 Kb)
Leer 3 páginas más »
Disponible sólo en Clubensayos.com