Sie sind auf Seite 1von 31

FUNCIONES DE APRENDIZAJE

learngd Learngdm Learnh Learnhd

Gradiente de descenso de peso / funcin de aprendizaje sesgo. Gradiente de descenso de peso / peso impulso / funcin de aprendizaje sesgo. Hebb funcin de ponderacin de aprendizaje. Hebb pizca peso decadencia funcin de aprendizaje.

Learnis
Learnk Learnlv1 Learnlv2 Learnos Learnp Learnpn Learnsom Learnhw

Instar funcin de ponderacin de aprendizaje.


Kohonen funcin de ponderacin de aprendizaje. LVQ1 funcin de ponderacin de aprendizaje. LVQ2-peso aprendizaje funcin Outstar funcin de ponderacin de aprendizaje. Perceprton peso / funcin de aprendizaje sesgo. Normalizado perceptrn de peso / funcin de aprendizaje sesgo. Auto-organizacin de mapas peso funcin de aprendizaje. Widrow-Hoff peso / regla sesgo aprendizaje.

El perceptrn es un tipo de red de aprendizaje supervisado, es decir, necesita conocer los valores esperados (targets) para cada una de las entradas (a) presentadas

Generalmente ocupan funciones de transferencia tipo hardlim y hardlims La regla de aprendizaje que sigue el perceptrn para la actualizacin de sus pesos es la siguiente:

Se desea realizar un clasificador de 4 tipos diferentes de cajas usando 6 sensores

traingd aprendizaje por gradiente descendiente (Estndar) traingdm gradiente descendiente con momentum (low-pass filter) traingda, traingdx gradiente descendiente, variando el learning rate trainlm - Levenberg-Marquardt basado en la matriz Hessiana pero hecha con una aproximacin usando la matriz Jacobian

La eficiencia de una red entrenada puede ser medida viendo los errores que arroja la red durante el entrenamiento o bien validando el set de training, pero algunas veces es til medir la red con ms detalle. Una opcin es medir la eficiencia por anlisis regresivo.

m y b corresponden a la pendiente y a la interseccin en el eje de las ordenadas respectivamente, es decir, representan la mejor regresin lineal que relaciona los targets con las salidas de la red r es un coeficiente de correlacin entre los targets y las salidas, toma valores entre 0 y 1, donde 1 indica una perfecta correlacin

La declaracin y entrenamiento de la red se ejecuta con una sola funcin que se llama newhop, en realidad lo que hace esta funcin es calcular los pesos colocando como condicin inicial a la matriz T

Se desea realizar una red que grabe M patrones de entrada (en este caso sern letras o nmeros) de una matriz de 5x5. Despus que se haya entrenado la red se presentarn entradas con ruido (letras mal hechas) de tal forma que la red converja al patrn ms parecido (letra ms parecida)