Beruflich Dokumente
Kultur Dokumente
1 si n >= 0
0 si n <0
(1)
La grca que se presentar al utilizar esta funcin de ac-
tivacin es la gura 3:
Figura 3. Grca de la Funcin Hardlim
La sintaxis de esta funcin es:
A = hardlim(N, FP)
donde:
N es una matriz de entrada S por Q.
FP Struct parmetros de la funcin (ignorado)
Existe una modicacin para esta funcin de activacin y
es FUNCIN DE TRASFERENCIA LIMITADOR FUERTE
SIMTRICO (HARDLIMS esta restringe el espacio de salida
a valores entre 1 y 1 (Neural Network Toolbox, 2010)
a =
1 si n >= 0
-1 si n <0
(2)
Figura 4. Grca de la Funcin Hardlims
La sintaxis de esta funcin es:
UNIVERSIDAD NACIONAL DE LOJA
rfrojasl@unl.edu.ec, jlsaragurop@unl.edu.ec
2
Ronal Rojas-Jenny Saraguro Tutor: Ing Henry Paz
A = hardlims(N, FP)
donde:
N es una matriz de entrada S por Q.
FP Struct parmetros de la funcin (ignorado)
Funciones de Aprendizaje
Una vez se han inicializado los pesos de la red y los
el bias, la red est lista para ser entrenada. La red puede
entrenarse para: la aproximacin de una funcin (regresin
no lineal), la asociacin del modelo, o la clasicacin
del modelo. El proceso de entrenamiento requiere de los
patrones de conducta apropiados para la red, las entradas de
la red p y las salidas en blanco t. (mathworks, 2014)
Entre las funciones de aprendizaje empleadas en el caso
prctico tenemos:
Retropropagacin gradiente conjugado con reini-
cios Powell-Beale (traincgb): funcin de entrenamineto que
actualiza los pesos y las bias de aacuerdo con el algoritmo
de retropropagacin de gradiente conjungado segun Powell-
Beale. (Carlos Alfonzo Prez Rivera, 2005)
Para todos los algoritmos de gradiente conjugado, la
direccin de bsqueda se restablece peridicamente para el
negativo de la pendiente. El punto de reinicio estndar se
produce cuando el nmero de iteraciones es igual al nmero
de parmetros de la red (pesos y bias), pero hay otros
mtodos de restauracin que pueden mejorar la eciencia de
la formacin.(mathworks, 2014)
Uno de estos mtodos de reposicin fue propuesta por
Powell, basado en una versin anterior propuesto por Beale.
Esta tcnica se reinicia si hay muy poco ortogonalidad entre
el gradiente actual y el gradiente anterior.
La sintaxis de esta funcin se describe de la
forma:(mathworks, 2014)
net.trainFcn =
traincgb
trainbf g
trainbr