CAPÍTULO I PERCEPTRON
Enviado por Pau CH • 17 de Septiembre de 2020 • Práctica o problema • 905 Palabras (4 Páginas) • 139 Visitas
CAPÍTULO I
PERCEPTRON
I.1 Conceptos básicos
En la siguiente figura se muestra un tipo de neurona que se llama perceptrón con entrada escalar [pic 1]
[pic 2][pic 3]
La entrada se multiplica por el peso escalar w, para formar el término que es una entrada el sumador. La otra entrada 1 se multiplica por el sesgo b. La salida del sumador, es[pic 4][pic 5]
[pic 6]
La salida a la función de transferencia , está dada por[pic 7]
[pic 8]
Así, para,
,, y [pic 9][pic 10][pic 11][pic 12]
[pic 13]
La entrada p contiene información; y son parte del diseño para obtener la salida requerida. [pic 14][pic 15]
En general las funciones de activación son no lineales. Se ha experimentado sobre muchas de estas para su uso en problemas de ingeniería, las más importantes son
Función | Regla | Icono | Función Matlab |
Límite duro | [pic 16] [pic 17] | [pic 18] | hardlim |
Límite duro simétrico | [pic 19] [pic 20] | [pic 21] | hardlims |
Lineal | [pic 22] | [pic 23] | purelin |
Lineal saturado | [pic 24] [pic 25] [pic 26] | [pic 27] | satlin |
Lineal saturado simétrico | [pic 28] [pic 29] [pic 30] | [pic 31] | satlins |
Log-sigmoide | [pic 32] | [pic 33] | logsig |
Sigmoide hiperbólico tangente | [pic 34] | [pic 35] | tansig |
Lineal positivo | [pic 36] [pic 37] | [pic 38] | poslin |
Competitiva | neurona con max n[pic 39] todas las demás[pic 40] | [pic 41] | compet |
Una neurona tiene generalmente más de una entrada. Sean entradas,que forman el vector y se tienen pesosque forman la matriz renglón [pic 42][pic 43][pic 44][pic 45][pic 46][pic 47]
[pic 48]
donde
[pic 49]
(matriz renglón)[pic 50]
(vector columna)[pic 51]
b, n y a son escalares, entonces
[pic 52]
[pic 53]
Con esta notación se puede expresar el perceptrón multi-entrada como
[pic 54]
Ahora un perceptrón puede tener más de una neurona, como se muestra con el caso de R neuronas y una capa (‘layer’).
[pic 55]
Entonces . Las funciones pueden ser distintas entre sí, o ser las mismas.[pic 56]
Donde son vectores, W es una matriz de orden S x R[pic 57]
[pic 58]
Así indica la conexión a la cuarta neurona de la segunda entrada.[pic 59]
En notación abreviada un red de una capa, S neuronas y R entradas es
[pic 60]
[pic 61]
Ahora consideramos el caso de múltiples capas. En este caso se usará un superíndice para las W dependiendo en que capa estén.
Sea el caso de 3 capas:
[pic 62]
Para 4 capas habrá 2 capas ocultas.
En forma abreviada el diagrama anterior se puede escribir de la siguiente manera:
[pic 63]
Donde
[pic 64][pic 65][pic 66]
Esto es
[pic 67]
Los perceptrones multicapa son muy poderosos. Para muchos problemas un perceptrón de 2 capas, una con función sigmoide y otra con función lineal, son suficientes para resolverlo.
En la mayoría de los casos no son necesarias más de 3 capas.
Ejemplo:
Dada una neurona con 2 entradas y los parámetros [pic 68]
Calcular la salida considerando una función de transferencia con
- Saturación lineal
- Límite duro simétrico
- Log-sigmoide
Solución:
[pic 69]
- [pic 70]
- [pic 71]
- [pic 72]
Caso de 2 entradas
Consideremos el caso de 2 entradas escalares y una neurona con función limite duro simétrico:
[pic 73]
entonces [pic 74]
En este caso el perceptrón clasifica la entrada en dos categorías.
Por ejemplo, para pesos w11=-1 y w12=1 entonces
[pic 75]
Sea el caso particular, cuando b=-1 y n=0, entonces n=0 indica el punto de frontera, esto es:
[pic 76]
[pic 77]
Es posible generalizar el resultado de que el perceptrón de una sola capa puede reconocer patrones que son linealmente separables.[pic 78]
...