Beruflich Dokumente
Kultur Dokumente
Redes de Neuronas
1. 2. 3. 4. Introduccin o Perceptrn simple o Perceptrn Multicapa o Aplicaciones
Introduccin o
Introduccin o
NET
n i=1 xi wi +U )
Introduccin o
Funciones de activacin o
Funcin lineal: o f (x) = x Funcin umbral: o f1 x>0 f (x) = f 1 x 0 Funcin gausiana: o f (x) = e
x2 2
Funciones sigmoidales Funcin en (0, 1): f (x) = o Funcin en (1, 1): o ex ex f (x) = ex+ex
1 1+ex
Introduccin o
Introduccin o
Conexiones
7
Introduccin o
Redes de Neuronas
1. 2. 3. 4. Introduccin o Perceptrn simple o Perceptrn Multicapa o Aplicaciones
Perceptrn Simple o
Introduccin o
Forma ms simple de red de neuronas a Adaptacin supervisada o Ejemplos vistos como puntos en el espacio Rn, junto con su clase asociada Tareas de clasicacin lineal: dado un conjunto de patrones o ejemplos, o determinar el hiperplano capaz de discriminar los patrones en dos clases: Hiperplano: x1w1 + x2w2 + . . . + xnwn + w0 = 0
10
Perceptrn Simple o
Arquitectura
Arquitectura:
x1 x2 xn w1 w2 ... wn u y
y = f (x1w1 + x2w2 + . . . + xnwn + w0) 1 x>0 f (x) = 1 x 0 La red puede utilizarse para clasicacin supervisada: o Si y = 1 entonces (x1, . . . , xn) C1 Si y = 1 entonces (x1, . . . , xn) C2
11
Perceptrn Simple o
Aprendizaje
Proceso iterativo supervisado de presentacin de patrones: modicacin o o de los parmetros de la red (pesos y umbral) hasta encontrar el a hiperplano discriminante Nmero nito de iteraciones u Entrada: conjunto de pares < x, d(x) >, donde x = (x1, . . . , xn) Salida deseada, d(x), donde: Si d(x) = 1 entonces x C1 Si d(x) entonces x C2 Salida del proceso de aprendizaje: Pesos y umbral, w0, . . . , wn
12
Perceptrn Simple o
Algoritmo de Aprendizaje
1. Inicializacin aleatoria de los pesos y del umbral, w0, . . . , wn o 2. Elegir un patrn de entrada, con su salida deseada, o < x = (x1, . . . , xn), d(x) > 3. Calcular la salida de la red: y = x1w1 + x2w2 + . . . + xnwn + w0 4. Actualizar los pesos de la red: Si y = d(x) (clasicacin correcta), volver al paso 2 o Si y = d(x) (clasicacin incorrecta), actualizar segn la siguiente o u ley de aprendizaje: Caso 1: d(x) = 1, y = 1 wi(t + 1) = wi(t) + xi u(t + 1) = u(t) + 1 Caso 2: d(x) = 1, y = 1 wi(t + 1) = wi(t) xi u(t + 1) = u(t) 1
13
Perceptrn Simple o
(1, 1)
(1, 1)
14
Perceptrn Simple o
x1
Perceptrn 3 y
x2
Perceptrn 2
Problema: La ley de aprendizaje no es aplicable, puesto que no se conocen las salidas deseadas de los perceptrones interiores (en el ejemplo, del 1 y del 2). Por tanto, los pesos deber ser calculados mediante un an proceso manual.
15
Redes de Neuronas
1. 2. 3. 4. Introduccin o Perceptrn simple o Perceptrn Multicapa o Aplicaciones
16
Perceptrn Multicapa o
Denicin o
Neuronas agrupadas en capas Cada neurona en cada capa est agrupada a todas las neuronas de la a capa siguiente Cada neurona procesa la informacin recibida y propaga la respuesta a o travs de la conexin con todas las neuronas de la capa siguiente e o
W= wij W=wij
Capa de Entrada
Perceptrn Multicapa o
Arquitectura
Capas: Capa de entrada: recibe los patrones del exterior: ai = xi; i = 1, . . . , n n Capa oculta: bj = f ( i=1 wij ai + uj ), j = 1, . . . , r f: funcin sigmoidal o Capa salida: proporciona la salida de la red: r y = f ( i=1 wij bi + vj ), j = 1, . . . , m Extensible a ms de una capa oculta a Nmero de neuronas en las capas de entrada y salida viene denido por u el problema Nmero de capas ocultas y neuronas en cada capa: denir por prueba u y error
18
Perceptrn Multicapa o
Aprendizaje
Diferencia con perceptrn simple: funcin de activacin sigmoidal (rango o o o de salidas continuo) Ahora se busca minimizar el error de salida Entrada: conjunto de pares < x, t(x) >, donde x = (x1, . . . , xn) Salida deseada, t(x), donde: Si t(x) = (t1, . . . , tm) Salida del aprendizaje: Matrices de pesos W = (wij ), W = (wij ) y vectores de umbrales, U = (ui), V = (vi) Tales que se minimice el error entre la salida de la red y la salida deseada, es decir, minimizar E = x t(x) y(x)
19
Perceptrn Multicapa o
El algoritmo de retropropagacin es el resultado de aplicar dicho mtodo o e al perceptrn multicapa o Ahora los errores s pueden propagarse desde la capa de salida hasta el resto de las capas.
20
Perceptrn Multicapa o
21
Redes de Neuronas
1. 2. 3. 4. Introduccin o Perceptrn simple o Perceptrn Multicapa o Aplicaciones
22
Aplicaciones
Clasicacin o
Sea X = (x1, . . . , xk ) el conjunto de todos los patrones de entrenamiento, con xi = (xi1, . . . , xin) Sea C = C1, . . . , Cm el conjunto nito de posibles clases a las que puede pertenecer cada patrn o Generar una red con: n neuronas en la capa de entrada m neuronas en la capa de salida La salida deseada para cada patrn de entrada xi es una m-tupla o (a1, . . . , am) donde: Si xi pertenece a la clase Cj , entonces ai = 1 Si xi no pertenece a la clase Cj , entonces ai = 0 Dado un nuevo patrn en la red, se dar la clase cuya neurona o a asociada reciba una mayor activacin o Problema de la codicacin de los patrones de entrada o
23
Aplicaciones
Aplicaciones
25
Aplicaciones
Referencias
References
[Isasi and Galvn, 2004] Pedro Isasi and Ins Galvn. Redes de neuronas a e a articiales : un enfoque prctico. Pearson Prentice Hall, 2004. a
26