Sie sind auf Seite 1von 18

Conceptos

REDES NEURONALES &


Aplicación
CONCEPTO DE RED NEURONAL
ARTIFICIAL
Es un conjunto de neuronas lógico-
matemáticas, que se encuentran distribuidas
en capas, las cuales, cada una de estas capas
se conectan con el fin de realizar diversas
operaciones.
PERCEPTRONES

 Perceptrón Multicapa  Perceptrón Simple


EL PERCEPTRON SIMPLE

El perceptron simple fue introducido por Rosenblatt


y es un modelo unidireccional compuesto por dos
capas de neuronas, una de entrada y otra de salida.
La operacion en un perceptron simple que consta de
n neuronas de entrada y m neuronas de salida se
puede expresar como:

con i = 1; : : :
;m.
CARACTERISTICAS

 Es un sistema capaz de realizar tareas de clasificación de forma


automática.
 A partir de un número de ejemplos etiquetados, el sistema
determina la ecuación del plano discriminante.
 Puede usarse como neurona dentro de otro tipo de red de
neurona artificial.
 Conexiones en un sólo sentido.
 Es reconocido por su capacidad de aprender a reconocer patrones
 Es un modelo unidireccional compuesto por dos capas de
neuronas.
 Con respecto al entrenamiento las neuronas de entrada son
discretas y la función de activación de las de salida es de tipo
escalón
EL PERCEPTRON MULTICAPA

 El perceptrón multicapa es una Red Neuronal Artificial (RNA)


formada por múltiples capas, de tal manera que tiene capacidad
para resolver problemas que no son linealmente separables .

 Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. En estas
neuronas no se produce procesamiento.
 Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a
neuronas de capas posteriores.
 Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red.
CARACTERISTICAS

 Las funciones de transferencia de los elementos de procesado


(neuronas) han de ser derivables.

Limitaciones:

 El Perceptrón Multicapa no extrapola bien, es decir, si la red se entrena


mal o de manera insuficiente, las salidas pueden ser imprecisas.
 La existencia de mínimos locales en la función de error dificulta
considerablemente el entrenamiento, pues una vez alcanzado un mínimo
el entrenamiento se detiene aunque no se haya alcanzado la tasa de
convergencia fijada.

Aplicaciones:
 El perceptrón multicapa se utiliza para resolver problemas de asociación
de patrones, segmentación de imágenes, compresión de datos, etc .
BACKPROPAGATION

 Es un método de cálculo del gradiente utilizado


en algoritmos de aprendizaje supervisado utilizados para
entrenar redes neuronales artificiales.
 Una vez que se ha aplicado un patrón a la entrada de la red como
estímulo, este se propaga desde la primera capa a través de las capas
siguientes de la red, hasta generar una salida. La señal de salida se
compara con la salida deseada y se calcula una señal de error para
cada una de las salidas.
 Las salidas de error se propagan hacia atrás, partiendo de la capa de
salida, hacia todas las neuronas de la capa oculta que contribuyen
directamente a la salida. Este proceso se repite, capa por capa, hasta
que todas las neuronas de la red hayan recibido una señal de error.

 La importancia de este proceso consiste en que, a medida que se


entrena la red, las neuronas de las capas intermedias se organizan a sí
mismas de tal modo que las distintas neuronas aprenden a reconocer
distintas características del espacio total de entrada. 
DESCRIPCIÓN DEL ALGORITMO

A grandes rasgos:

1. Calcular la salida de la red “o ” a part ir de uno de lo s conjuntos de valores


de prueba.
2. Comparar con la salida correcta “t ” y calcular el error según la fórmula:

3. Calcular las derivadas parciales del error con respect o a los pesos   que
unen a la última capa oculta con la de salida.
4. Calcular las derivadas parciales del error con respect o a los pesos   que
unen la cap a de ent rada con la o cult a.
5. Ajustar los pesos de cada neurona para reducir el error.
6. Repet ir el p ro ceso varias veces por cada par de entradas-salidas de prueba.
FUNCION DE ACTIVACION
L A F U N CI Ó N D E A C TI V A CI Ó N , V A A S E R Q U I E N
D E TE R M I N E E L C O M PO R TA M I E NT O D E M I S
S A L ID A S D E CA D A CA PA , E S D E C IR , Q U I E N
E S CO G E Q U E V A L O R PA S A O C U A L S E Q U E D A ,
S AB ER ES CO G E R U N A F U N CI Ó N D E A C TI V A CI Ó N E S
F U N D A M E N TA L E N E L PR O C E S O D E
“ A PR E N D I ZA J E ” ( D E E P L E A R NI N G ) .
TIPOS DE FUNCIÓN DE ACTIVACIÓN
 U m b r a l (  Threshold)
En esencia la función Threshold es bastante simple, solo devuelve
1 cuando x ≥ 0 y 0 de otro modo, es decir que nuestras salidas
serán todas binarias, si o no, encendido o apagado.
Tangente hiperbólica
La función tangente hiperbólica transforma los valores
introducidos a una escala (-1,1), donde los valores altos tienen
de manera asintótica a 1 y los valores muy bajos tienden de
manera asintótica a -1.
Sigmoide
La función sigmoide transforma los valores introducidos a una
escala (0,1), donde los valores altos tienen de manera asintótica
a 1 y los valores muy bajos tienden de manera asintótica a 0.
En este caso tenemos una curva mas suave que va de 0 a casi 1
pasando por sus valores intermedios, esta función es muy bueno
tenerla en la capa de salida cuando queremos calcular alguna
probabilidad.
TANGENTE HIPERBÓLICA
La función tangente hiperbólica transforma los valores
introducidos a una escala (-1,1), donde los valores altos tienen de
manera asintótica a 1 y los valores muy bajos tienden de manera
asintótica a -1.
ReLU – Rectified Lineal Unit
La función ReLU transforma los valores introducidos anulando
los valores negativos y dejando los positivos tal y como entran.
Leaky ReLU – Rectified Lineal Unit
La función Leaky ReLU transforma los valores introducidos
multiplicando los negativos por un coeficiente rectificativo y
dejando los positivos según entran.

Das könnte Ihnen auch gefallen