Sie sind auf Seite 1von 8

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

FUNCION DE ACTIVACIN
Entre las unidades o neuronas que forman una red neuronal artificial existe un conjunto de conexiones que las unen. Cada unidad transmite seales a aquellas que estn conectadas a su salida. Asociada con cada unidad Uj hay una funcin de activacin (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran informacin, en el valor de salida Yj.

Figura 1. Calculo de la salida evaluando la neta en la funcin de Activacin. Entre las funciones de activacin ms utilizadas se tienen: Funcin de Activacin Lineal

Figura 2. Funcin de Activacin Lineal con su expresin matemtica.

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

Funcin de Activacin Sigmoidal

Figura 3. Funcin matemtica.

de

Activacin

Sigmoidal

con

su

expresin

Funcin de Activacin Sigmoidal Bipolar o Tangente Sigmoidal

Figura 4. Funcin de Activacin Sigmoidal Bipolar con su expresin matemtica.

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

Funcin de Activacin Escaln

Figura 5. Funcin de Activacin Escaln con su expresin matemtica

En MatLab se encuentran las siguientes funciones de transferencia: compet hardlim hardlims logsig netinv poslin purelin radbas radbasn satlin satlins softmax tansig tribas Competitive transfer function Hard-limit transfer function Symmetric hard-limit transfer function Log-sigmoid transfer function Inverse transfer function Positive linear transfer function Linear transfer function Radial basis transfer function Normalized radial basis transfer function Saturating linear transfer function Symmetric saturating linear transfer function Soft max transfer function Hyperbolic tangent sigmoid transfer function Triangular basis transfer function

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

Los grficos que corresponden a cada una de las funciones son los siguientes:

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

De stas, las ms empleadas son las mencionadas a continuacin: - Funcin escaln - Funcin lineal y mixta - Sigmoidal - Funcin radial (gaussiana) La funcin escaln nicamente se utiliza cuando las salidas de la red son binarias. La salida de una neurona se activa slo cuando el estado de activacin es mayor o igual a cierto valor umbral. La funcin lineal o identidad equivale a no aplicar funcin de salida. Las funciones mixta y sigmoidal son las ms apropiadas cuando se quiere como salida informacin analgica. Aplicaciones de las funciones ms comunes: Funcin escaln La funcin escaln se asocia a neuronas binarias en las cuales cuando la suma de las entradas es mayor o igual que el umbral de la neurona, la activacin es 1, si es menor, la activacin es 0 ( 1). Las redes formadas por este tipo de neuronas son fciles de implementar en hardware, pero sus capacidades estn limitadas. Se usa comnmente en problemas de clasificacin. Funcin lineal o mixta Se usa en problemas de aproximacin o estimacin lineal. La funcin lineal o mixta corresponde a la funcin F(x) =x. En las neuronas con funcin mixta si la suma de las seales de entrada es menor que un lmite inferior, la activacin se define como 0 ( 1). Si dicha suma es

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

mayor o igual que el lmite superior, entonces la activacin es 1. Si la suma de entrada est comprendida entre ambos lmites, la activacin se define como una funcin lineal de suma de las seales de entrada. Neuronas que emplean esta funcin de transferencia son empleadas en la reds tipo Adeline.

Funcin sigmoidal Se usa en problemas de aproximacin. Cualquier funcin definida simplemente en un intervalo de posibles valores de entrada, con un incremento monotnico y que tengan ambos limites superiores e inferiores (por ejemplo las funciones sigmoidal y arco tangente), podr realizar la funcin de activacin o transferencia de forma satisfactoria. Con la funcin sigmoidal, para la mayora de los valores del estmulo de entrada, el valor dado por la funcin es cercano a uno de los valores asintticos. Esto hace posible que en la mayora de los casos, el valor de salida est comprendido en la zona alta o baja del sigmoide. De hecho cuando la pendiente es elevada, esta funcin tiende a la funcin escaln. La importancia de sta funcin es que su derivada es siempre positiva y cercana a cero para los valores grandes positivos o negativos; adems toma su valor mximo cuando x es cero. Esto hace que se puedan utilizar las reglas de aprendizaje definidas para la funcin escaln, con la ventaja respecto a esta funcin, que la derivada est definida para todo el intervalo. La funcin escaln no poda definir la derivada en ele punto de transicin y esto no ayuda a los mtodos de aprendizaje en los cuales se usan derivadas. El uso de esta funcin de transferencia es comn en redes multicapas, como la backpropagation.

Funcin de transferencia radial (gaussiana) Los centros y anchura de estas funciones pueden ser adaptados, lo cual las hace ms adaptativas que las funciones sigmoidales. Se usan comnmente en problemas de clasificacin, aunque generalmente son para problemas de mapeoy poseen capacidades de aproximacin universal. Tambin son utilizadas para: Control. - Procesamiento del lenguaje. Aproximacin de funciones.

Inteligencia Artificial y Redes Neuronales Artificiales Berti, Julia Robledo, Sebastin

Estadstica. Reconocimiento de rostros. Prediccin. Sensores de olor. Clasificacin de imgenes de color.

Funcin de transferencia Tangente Hiperblica Se usa en problemas de aproximacin. Referencias: -http://la-nanotecnologia.blogspot.com/2008/05/funcin-de-salida-otransferencia.html - http://www.mathworks.com/help/toolbox/nnet/ref/f7-23438.html#f716805 - http://members.tripod.com/jesus_alfonso_lopez/RnaIntro2.html - Introduccin a las Redes Neurales . Prof. Minaya Vallasana

Das könnte Ihnen auch gefallen