Beruflich Dokumente
Kultur Dokumente
con i = 1; : : :
;m.
CARACTERISTICAS
Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. En estas
neuronas no se produce procesamiento.
Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a
neuronas de capas posteriores.
Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red.
CARACTERISTICAS
Limitaciones:
Aplicaciones:
El perceptrón multicapa se utiliza para resolver problemas de asociación
de patrones, segmentación de imágenes, compresión de datos, etc .
BACKPROPAGATION
A grandes rasgos:
3. Calcular las derivadas parciales del error con respect o a los pesos que
unen a la última capa oculta con la de salida.
4. Calcular las derivadas parciales del error con respect o a los pesos que
unen la cap a de ent rada con la o cult a.
5. Ajustar los pesos de cada neurona para reducir el error.
6. Repet ir el p ro ceso varias veces por cada par de entradas-salidas de prueba.
FUNCION DE ACTIVACION
L A F U N CI Ó N D E A C TI V A CI Ó N , V A A S E R Q U I E N
D E TE R M I N E E L C O M PO R TA M I E NT O D E M I S
S A L ID A S D E CA D A CA PA , E S D E C IR , Q U I E N
E S CO G E Q U E V A L O R PA S A O C U A L S E Q U E D A ,
S AB ER ES CO G E R U N A F U N CI Ó N D E A C TI V A CI Ó N E S
F U N D A M E N TA L E N E L PR O C E S O D E
“ A PR E N D I ZA J E ” ( D E E P L E A R NI N G ) .
TIPOS DE FUNCIÓN DE ACTIVACIÓN
U m b r a l ( Threshold)
En esencia la función Threshold es bastante simple, solo devuelve
1 cuando x ≥ 0 y 0 de otro modo, es decir que nuestras salidas
serán todas binarias, si o no, encendido o apagado.
Tangente hiperbólica
La función tangente hiperbólica transforma los valores
introducidos a una escala (-1,1), donde los valores altos tienen
de manera asintótica a 1 y los valores muy bajos tienden de
manera asintótica a -1.
Sigmoide
La función sigmoide transforma los valores introducidos a una
escala (0,1), donde los valores altos tienen de manera asintótica
a 1 y los valores muy bajos tienden de manera asintótica a 0.
En este caso tenemos una curva mas suave que va de 0 a casi 1
pasando por sus valores intermedios, esta función es muy bueno
tenerla en la capa de salida cuando queremos calcular alguna
probabilidad.
TANGENTE HIPERBÓLICA
La función tangente hiperbólica transforma los valores
introducidos a una escala (-1,1), donde los valores altos tienen de
manera asintótica a 1 y los valores muy bajos tienden de manera
asintótica a -1.
ReLU – Rectified Lineal Unit
La función ReLU transforma los valores introducidos anulando
los valores negativos y dejando los positivos tal y como entran.
Leaky ReLU – Rectified Lineal Unit
La función Leaky ReLU transforma los valores introducidos
multiplicando los negativos por un coeficiente rectificativo y
dejando los positivos según entran.