Sie sind auf Seite 1von 5

Vowel Classifier using functions Hardlims and

Hardlim with Matlab


Clasificador de Vocales, utilizando funciones
Hardlim y Hardlims con Matlab
K. Cordova, R. Villavicencio, Tutor: H. Paz

AbstractThis paper describes artificial neural networks, the


perceptron and the elements as the activation functions, the
most used and hardlim hardlims, also an example
Resumen Este artculo describe las redes neuronales artificiales, el perceptron, los elementos y las funciones de activacion
mas utilizadas hardlims , hardlim y tambien un ejemplo
Index TermsHardlim, Hardlims, Perceptron, Activation
functions, Neural Networks, Elements.
Palabras Claves Hardlim, Hardlims, Perceptron, Funciones
de activacion, Redes Neuronales Artificiales, Elementos.

I. I NTRODUCCI ON
Las redes neuronales se centran en la funcion de activacion
y el entrenamiento que se aplique a un problema del cual se
presente una entrada de informacion y una salida deseada;
las funciones hardlim y hardlims son utilizada por defecto en
la creacion de perceptrones y redes neuronales cuando no se
especifica su funcion y entrenamiento.
La utilizacion de matlab para la comprobacion de funciones
es primordial ya que es mas facil aplicarla en una interfaz
grafica y utilizar las funciones ya indexadas en el programa.
Se evidenciara el desarrollo de redes neuronales aplicando
hardlim y hardlims, comprobando la mas optima en
iteraciones.
La clasificacion de las vocales abiertas y cerradas se
comprende en el patron de entrada visualizada en una matriz
y su salida para cada una, la aplicacion de matlab fue
exitosa en la respuesta deseada ya que podemos comprobar
su clasificacion en la simulacion de las salidas obtenidas
con las salidas deseadas, el GUI de matlab nos brinda una
mejor alternativa para presentar nuestro problema y sea mas
entendible en la captura de entradas y salidas.
II. E STADO DEL A RTE
A. Red Neuronal Artificial
Una Red neuronal en un esquema de computacion distribuida inspirada en la estructura del sistema nervioso de los
K. Cordova, Universidad Nacional de Loja, Loja, Ecuador, kjcordovac@unl.edu.ec
R. Villavicencio, Universidad Nacional de Loja, Loja, Ecuador, mavillavicencioe@unl.edu.ec

seres humano [1]esta trata de emular el comportamiento del


cerebro humano, caracterizado por el aprendizaje a traves de
la experiencia y la extraccion [2],Las ventajas de las redes
neuronales son:
Aprendizaje adaptativo. Capacidad de aprender a realizar
tareas basadas en un entrenamiento o una experiencia
inicial.
Auto organizaci
on. Una red neuronal puede crear su
propia organizacion o representacion de la informacion
que recibe mediante una etapa de aprendizaje.
Generalizaci
on. Facultad de las redes neuronales de responder apropiadamente cuando se les presentan datos o
situaciones a las que no haban sido expuestas anteriormente.
Tolerancia a fallos. La destrucci
on parcial de una red
conduce a una degradacion de su estructura; sin embargo,
algunas capacidades de la red se pueden retener, incluso
sufriendo gran dano. Con respecto a los datos, las redes
neuronales pueden aprender a reconocer patrones con
ruido, distorsionados o incompletos.
Operaci
on en tiempo real. Los computadores neuronales
pueden ser realizados en paralelo, y se disenan y fabrican maquinas con hardware especial para obtener esta
capacidad.
F
acil insercion dentro de la tecnologa existente. Se
pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello
facilita la integracion modular en los sistemas existentes
B. Modelo Biologico
El cerebro consta de un gran numero (aproximadamente
1011)
de
elementos
altamente
interconectados
(aproximadamente 104 conexiones por elemento), llamados
neuronas. Estas neuronas tienen tres componentes principales,
las dendritas, el cuerpo de la celula o soma, y el axon.
Las dendritas, son el a rbol receptor de la red, son como
fibras nerviosas que cargan de senales electricas el cuerpo
de la celula. El cuerpo de la celula, realiza la suma
de esas senales de entrada. El axon es una fibra larga que
lleva la senal desde el cuerpo de la celula hacia otras neuronas.
El punto de contacto entre un axon de una celula y

una dendrita de otra celula es llamado sinapsis, la longitud


de la sinapsis es determinada por la complejidad del proceso
qumico que estabiliza la funcion de la red neuronal.[3] Un
esquema simplificado de la interconexion de dos neuronas
biologicas se observa en la siguiente figura 1

neuronas toman sus decisiones simultaneamente teniendo en


cuenta la evolucion del estado global de la red.[5]
D. Elementos de Redes Neuronales Artificiales.
En un sentido amplio, una red neuronal consta de tres
elementos principales:
1) Topologa: Como esta organizada las red neuronal as
como el numero de capas y como esta conectada.
2) Aprendizaje: como se almacena la informacion en la red
3) Recuperacion: Como recuperar la informacion que esta
almacenada en la red
E. Perceptron Simple

Figura 1:

Neurona Biologica

C. Neurona Artificial
El modelo de una neurona artificial es una imitacion del
proceso de una neurona biologica como se muestra en la figura
2:

Figura 2:

Neurona Artificial

Donde:
Xi son las entradas representan las se
nales que provienen
de otras neuronas.
Wi son los pesos sin
apticos que equivalen en la neurona
biologica a los mecanismos que existen en la misma para
transmitir la senal.
Y es la salida despu
es a ser sido evaluada la funcion de
activacion[4]
La primera neurona fue concebida por W.McCulloch y
W.Pitts, la cual se trata de un modelo binario cuyo estado es
1 (activo)o 0 (inactivo).Periodicamente actualiza su estado de
la siguiente forma: calcula la suma de sus entradas (xi) con
el valor de cada entrada modulado por la eficiencia sinaptica
correspondiente y toma una decision comparando esta suma
con un cierto nivel o umbral (U) ya prefijado.
Si la suma es superior al umbral se activa (1); en caso
contrario se mantienen inactivamente (0). Por tanto las

Es una red que consta de dos capas de neuronas. La primera


capa tiene como funcion hacer de sensor, es decir, por el
van a entrar las senales a la red y la segunda capa realiza
todo el procesamiento. Entre sus principales caractersticas
encontramos:
1) Utiliza la Funcion de transferencia escalon, esto permite
clasificar vectores de entrada dividiendo el espacio de
entrada en dos regiones
2) Su regla de aprendizaje es supervisado
3) Sus valores de entrada reales y salidas binarias 0,1 y
-1,1
En la siguiente figura 3 se muestra su estructura

Figura 3:

Estructura de Perceptron simple

F. Reglas de aprendizaje de una red perceptron


Para poder generalizar el comportamiento de la red
perceptron es importante que es una regla de aprendizaje.
Una regla de aprendizaje, es un procedimiento para modificar
los pesos y bias de una red y tambien se le conoce como
algoritmo de entrenamiento. EL proposito de la regla de
aprendizaje es estrenar a la red para realizar una tarea. Existen
diversos tipos de algoritmos, pero en general caen en tres
categoras:
1) Aprendizaje supervisado, en este tipo de algoritmos
se proporcionan ejemplos denominado set de
entrenamiento (training set) y el conjunto de respuestas
que estamos esperando a la salida y que normalmente
denominamos set de salida objetivo (target set). El
algoritmo se usa para ajustar los pesos y los bias para
ajustar la respuesta de la neurona a lo que se desea
obtener. La regla que usa la red perceptron es un caso

tpico de este tipo de algoritmo.


2) Aprendizaje no supervisado, en este caso los pesos y
los bias se ajustan solamente con las entradas, ya que
no se cuenta con los set de salidas esperadas. Parecera
no tener sentido, pero casi todas las redes que usan esta
tecnica usan alguna tecnica de agrupamiento. Aprenden

a clasificar en un numero finito de clases. Util


en la
cuantizacion vectorial.
3) Aprendizaje reforzado, es parecido al aprendizaje supervisado, excepto que en lugar de dar un conjunto de salida
deseada u objetivo, se le da un grado o medida, que esta
asociado a el desempeno de la red. Generalmente se usa
en sistemas de control.[6]
G. Funciones de Transferencia
Ademas de los pesos y las conexiones, cada neurona tiene
asociada una funcion matematica denominada funcion transferencia. Dicha funcion genera la senal de salida de la neurona
a partir de las senales de entrada. Entre las funciones en los
distintos tipos de neuronas tenemos las que se muestran en la
figura 4

Figura 5:

Funcion Hardlim

2) Funcion
de
Transferencia
Limitador
fuerte
simterico(Hardlims): Esta funcion es la modificacion de
la Funcion de Transferencia Limitador Fuerte (Hardlim), la
que restringe el espacio de salida a valores entre 1 y -1 , si
el argumento de la funcion es menor que cero lo lleva a -1 y
la lleva a uno si este argumento es mayor que cero Donde:

La grafica que se presentara al utilizar esta funcion en la que


se muestra en la figura siguiente:

Figura 6:

Funcion Hardlims

I. Aplicacion : Clasificacion de Vocales)


Figura 4:

Tabla de Funciones

H. Funcion de Escalon o Heaviside


La funcion escalon o tambien conocida como Heaviside se
asocia a neuronas binarias en donde la salida de la misma
solo se activa cuando dicho estado de activacion es mayor
o igual que el umbral, dentro de esta hay el de Funcion
de Transferencia Limitador fuerte (Hardlim) y Funcion de
Transferencia Limitador Fuerte Simetrico (Hardlims)
1) Funcion de Transferencia Limitador fuerte (Hardlim):
Esta funci

La grafica que se presentara al utilizar esta funcion en la


que se muestra en la figura siguiente

A continuacion, se realiza la clasificacion de cinco padrones


de entrada en dos clases diferentes, donde cada padron cuenta
con 15 elementos. Los padrones de entrada pertenecen a las
cinco vocales, las cuales deberan de ser clasificadas en vocales
abiertas y vocales cerradas.

Interfaz de la aplicacion realizada en GUI de matlab, y


codigo utilizado.

La aplicacion es sencilla se debe clasificar las vocales


abiertas y cerradas dando patrones de entrada y de salida,
teniendo un solo menu en la interfaz para que realiace toda
la operacion directamente cargando todos los patrones de
entrada.

Para la aplicacion de la funcion de activacion harlims cambiamos algunos valores para que coincidan con la manipulacion
de datos de la funcion hardlims.

Luego de que ya carga todos los datos se ordena toda la


coleccion de datos en matrices, luego aplicamos la funcion
de activacion o tranferencia, y el respectivo entrenamiento de
la red.

Aqui utilizamos la funcion de activacion hardlims, evidenciando que tiene menos iteraciones que la funcion hardlim.

[6] Andrea, Aprendizaje Automatizado, 2012, Recuperado de: http://www.


dsi.fceia.unr.edu.ar/downloads/IC-RNA-2012.pdf
[7] Instituto Politecnico Nacional, Red Perceptron (Clasificacion)
Recuperado de: http://www.ingenieria.upiita.ipn.mx/attachments/229
Red20Perceptron,20resumen.pdf

Cuando seleccionamos la opcion hardlim, en el menu


aparece la siguiente informacion.

Marco Villavicencio Student in Systems Engineering from Universidad Nacional de Loja, Loja,
Ecuador in 2014.

y seleccionando la opcion hardlims, se obtiene las siguientes respuestas.

El codigo se encuentra en el siguiente repositorio: https:


//funcion-hardlim-hardlims.googlecode.com/svn/trunk/
III. C ONCLUSIONES

La funcion Hardlim es menos utilizada puesto que contiene cero, lo que ocasiona que el producto de los
resultadon no se actualizen a tiempo y su aprendizaje
sea mas lento.
El numero de interaccion en las funciones es notorio
debido a aque las dos reciben las mismas entradas, salidas
y entrenamiento evidenciando que la funcion Hardlims es
mas eficiente
R EFERENCES

[1] R.Salas (2004) Redes Neuronales Artificiales. Universidad de Valparaso. Departamento de Computacion.
[2] R.Flores, J.Fernandez 0.(2008)Las Redes Neuronales Artificiales. Fundamentos Teoricos y Aplicaiones Practicas
[3] F.Tanco, Introduccion alas Redes Neuronales Artificiales Universidad
Tecnologica Nacional, FAcultad Regional Buenos Aires. Recuperado
de:
[4] J. Barreiro, Implementacion de RNA para predecir PMM en la inyeccion de CO2, Caracas 2012, Escuela de Ingeniera de Petroleo
[5] F.Gomez, M.Fernandez, M.Lopez, M.Daz, Aprendizaje con Redes Neuronales Artificiales, Recuperado de: http://dialnet.unirioja.es/
descarga/articulo/2281678.pdf

Katherine Cordova Student in Systems Engineering from Universidad Nacional de Loja, Loja,
Ecuador in 2014.