Beruflich Dokumente
Kultur Dokumente
4
i=1
ij
x
i
+
0j
=
j
x +
0j
donde el vector
j
recoge los pesos de las conexiones entre las unidades de la capa de entrada y la neurona j de la capa
oculta. En cada una de las neuronas de la capa oculta se aplica una funcion no lineal , llamada funcion
de activacion, y (
j
x +
0j
) la informacion que parte de la unidad oculta j hacia la neurona de salida. La
informacion total que llega a la neurona de salida es
a
0
+
6
j=1
a
j
(
j
x +
0j
)
y el resultado de aplicar una funcion de activacion F correspondiente a esta neurona es
F
_
_
a
0
+
6
j=1
a
j
(
j
x +
0j
)
_
_
Cuando la funcion de activacion de las neuronas de la capa oculta es la logstica o la tangente hiperbolica,
la red recibe el nombre de MLP. En general, la funcion de activacion F es la identidad, aunque es posible
utilizar otra funcion dependiendo de la naturaleza de los datos, y se considera que todos los nodos de la capa
oculta tienen la misma funcion de activacion. En general una red MLP con q neuronas en una capa oculta,
una capa de entrada con m neuronas y una neurona en la capa de salida se escribe como
h(x, ) = F
_
_
a
0
+
6
j=1
a
j
(
j
x +
0j
)
_
_
donde x R
m
y R
(m+2)q+1
.
En forma general, las redes neuronales se pueden clasicar dependiendo de la naturaleza de su entrada
(continua o binaria) y del tipo de aprendizaje a utilizar, ademas de la arquitectura presente.
Figura 5: Clasicacion de las Redes Neuronales Articiales
5. Redes Neuronales Celulares
Las Redes Neuronales Celulares (RNCs) nacen en el Laboratorio de la Universidad de California en Berkeley;
producto de la mente de Leon O. Chua como una nueva arquitectura de circuito, en el a no de 1987; pero no
fue sino hasta 1988 cuando publica su trabajo de manera conjunta con L. Yang como un par de artculos en
los que presentan la teora [1] as como las primeras aplicaciones [2].
Figura 6: Arquitectura del Circuito propuesto por Chua & Yang
El autor deja ver en el nombre de su teora de manera clara, cuales fueron los fundamentos que le permitieron
forjar su idea. Basicamente son dos las bases que le sirvieron de sustento: las redes neuronales articiales
(RNAs), y los automatas celulares (ACs); de las primeras heredaron su capacidad para el procesamiento
asncrono en paralelo, la dinamica en tiempo continuo y la interaccion global de los elementos de la red;
mientras que de los AC obtuvieron su estructura, o en otras palabras, la idea de distribuir sus elementos de
procesamiento (tambien llamadas celulas) en rejillas regulares y permitir que la comunicacion de cada celula
con las otras se llevara a cabo a nivel local.
Al igual que con sus antecesores (las RNAs), los trabajos no se han concentrado en una area en particular y
es por lo anterior que se observan aplicaciones en procesamiento de imagenes; simulacion de modelos com-
plejos, de manera particular en biologa; encriptacion de datos; o por otro lado, avances teoricos, como los
que permiten la obtencion de los parametros (pesos) que requiere la RNC; extensiones que permiten el uso
de parametros no lineales; por mencionar algunos.
A nivel conceptual un trabajo que marca la historia de estas redes, es el que prueba la universalidad de una
maquina denida mediante una RNC en el sentido de la maquina de Turing.
5.1. Arquitectura de una RNC
Las RNCs obtienen su arquitectura de los ACs, y por lo tanto sus celulas al igual que en los automatas
estan distribuidas en rejillas regulares, aunque esta restriccion ha tendido a desaparecer sobretodo a partir
del anuncio realizado por el Profesor Chua en el 4
o
CNNA. Esta decision es con la nalidad de permitir
una mayor libertad en cuanto a la generacion de arreglos especcos de RNC para la solucion de un problema.
Ahora bien, en una RNC, cada celula (que procesa valores continuos de una se nal) esta interactuando con
las demas dentro de una vecindad nita solamente, una caracterstica mas concebida a partir de los ACs.
El patron de interacciones es el equivalente a los pesos en una RNA. Tal idea permanecio invariante durante
los ultimos a nos aun cuando los investigadores introdujeron grandes cantidades de casos especiales de RNC
para propositos especcos, principalmente porque la conectividad local es necesaria para dise nos complejos
con VLSI.
Lo anterior podra llegar a considerarse como una restriccion ya que puede darse el caso en que sea deseable,
sobretodo para el procesamiento de imagenes, obtener propiedades globales. No obstante, estas caractersti-
cas pueden ser obtenidas a traves de la llamada propiedad de propagacion, la cual dice que el valor de salida
de una celula puede ser afectada despues de n iteraciones por una region mayor de vecinos de la imagen
de entrada. En otras palabras, tras una iteracion una celula se ve afectada por sus vecinos; despues de dos
iteraciones los vecinos de la celula se vieron afectados por sus propios vecinos, as que la celula obtendra in-
formacion de los vecinos de sus vecinos, y as sucesivamente de manera que para un tiempo sucientemente
grande, cualquier par de celulas puede llegar a relacionarse de alguna forma.
5.2. Modelos de una RNC
Dentro de todos los modelos que se han desarrollado dentro de las RNC son tres los que se emplean en la
vasta mayora de los casos: la RNC de una sola capa, la RNC Multicapa y la RNC en Tiempo Discreto. La
primera es la mas com un y corresponde al modelo continuo con una sola capa; es el modelo original, y por
tal razon ademas de que es la mas empleada, normalmente se le llama simplemente RNC. La segunda fue
la primera extension al modelo; esta emplea arreglos de RNCs en capas (dos o mas, de manera semejante
a como se hace con los perceptrones) y es por esto que recibe su nombre. La ultima extension, no opera en
tiempo continuo, sino que utiliza valores discretos de este y de ah su nombre. A continuacion se presenta de
forma breve el funcionamiento de las tres arquitecturas.
5.2.1. Redes Neuronales Celulares de una sola capa
Esta clase, como ya fue se nalado, ha sido el modelo de uso predominante as como la base para las diversas
variaciones y extensiones que se han realizado en la teora. El exito del modelo radica en la simplicidad de
este. Como se podra observar en las siguientes lneas no consta mas que de un arreglo de celulas que estan
descritas por un conjunto simple de ecuaciones, sin embargo, cuentan con una gran riqueza de fenomenos
que pueden ser descritos con ellas gracias a la alta cantidad de elementos que procesan los datos de manera
paralela y continua. Las ecuaciones que denen la dinamica de una red para un arreglo bidimensional son
presentadas a continuacion.
Ecuacion de Estado:
dx
ij
(t)
dt
= x
ij
(t) +
C(g,h)Nr(ij)
A(i, j; g, h)y
gh
(t) +
C(g,h)Nr(ij)
B(i, j; g, h)u
gh
+I
1 i M ; 1 j N
donde
u
ij
, x
ij
, y
ij
, denotan las variables de entrada, estado y salida de C(i, j) respectivamente.
Se asume que u
ij
tiene una magnitud constante.
A y B son 2 matrices del tama no de la vecindad denida. La matriz A se denomina tambien matriz
de retroalimentacion, debido a que ejerce una funcion de control al retroalimentar la salida; y a la
matriz B se le conoce como matriz de control, por afectar a la entrada. A la variable I se le llama
umbral. Todo esto en su conjunto (incluyendo la denicion de la vecindad) es llamado cloning
template. El modelo de coecientes son translacionalmente invariantes (o lo que es lo mismo se
utiliza la misma regla para todas las celulas).
Utilizando la denicion de convolucion se puede reescribir la Ecuacion anterior como:
dx
ij
(t)
dt
= x
ij
(t) +A y
ij
(t) +B u
ij
+I
Ecuacion de Salida:
y
ij
(t) =
1
2
(|x
ij
(t) + 1| |x
ij
(t) 1|)
1 i M ; 1 j N
de forma tal que la salida estara acotada a valores entre 1 y -1 por la accion de la funcion no lineal.
Ecuacion de Entrada:
u
ij
= E
ij
1 i M ; 1 j N
para el cual E
ij
es igual a un valor de entrada constante en el tiempo.
Condiciones iniciales:
|u
ij
| 1
|x
ij
(0)| 1
1 i M ; 1 j N
Para la mayora de los casos el valor x
ij
(0) es igual al valor de entrada u
ij
, con valores que oscilan
entre 1 y -1.
5.2.2. Redes Neuronales Celulares Multicapa
El autor (L. O. Chua) desde un principio concibio y presento en su artculo de la teora de las RNC dos
modelos basicos: el modelo de una sola capa y el de multicapa. Esta primera extension se hace necesaria
porque de no existir, facilmente se podra llegar al caso en que cayo el perceptron. As pues, gracias a esta
extension, se cuenta con un conjunto de elementos arreglados en capas lo que hace posible que cada una
de estas obre persiguiendo un objetivo en particular y el resultado nal consistira entonces de la suma
de los resultados as obtenidos. Es obvio entonces que la variedad de fenomenos que pueden ser analizados
claramente se vera incrementada.
La generalizacion se consigue mediante el empleo de varias variables de estado en cada celula en lugar de
una sola. De acuerdo con lo anterior es necesario modicar el modelo de RNC para poder incluir todas las
capas, de manera que en su forma vectorial y utilizando la denicion para el operador de convolucion la
Ecuacion se reescribe como:
dX
ij
(t)
dt
= X
ij
(t) +A Y
ij
(t) +B U
ij
+I
donde:
A =
_
_
_
_
_
_
A
11
0 0 0
0 0
0
0
A
l1
A
ll
_
_
_
_
_
_
B =
_
_
_
_
_
_
B
11
0 0 0
0 0
0
0
B
l1
B
ll
_
_
_
_
_
_
I =
_
_
_
_
_
_
I
1
I
l
_
_
_
_
_
_
X
ij
=
_
_
_
_
_
_
x
1ij
x
lij
_
_
_
_
_
_
Y
ij
=
_
_
_
_
_
_
y
1ij
y
lij
_
_
_
_
_
_
U
ij
=
_
_
_
_
_
_
u
1ij
u
lij
_
_
_
_
_
_
donde l denota el n umero de capas. Aqu, el operador de convolucion * entre una matriz y un vector se
decodica como una multiplicacion entre matrices, mientras que cuando este entre una entrada de la matriz
y un vector operara de la forma en que fue denido anteriormente.
5.2.3. Redes Neuronales Celulares en Tiempo Discreto
Las RNCs en Tiempo Discreto (RNCTD) fueron propuestas por Hubert Harrer como una clase especial de
RNC la cual puede ser descrita completamente por un algoritmo recursivo cuya dinamica esta denida para
actuar en perodos discretos de tiempo, de ah el porque de su nombre.
Las RNCTD se denen por el siguiente algoritmo:
x
ij
(k) = A y
ij
(k) +B u
ij
+I
y
ij
(k + 1) = f(x
ij
(k)) =
_
_
_
1 si x
ij
(k) > 0
1 si x
ij
(k) < 0
para estas ecuaciones es necesario que todo elemento y
ij
(0) {1, 1} sea denido antes de que se lleve a
cabo cualquier operacion con la red.
La ventaja primordial de las RNCTD se debe al hecho de que la descripcion de la salida para el siguiente
estado puede ser descrita como un conjunto de desigualdades lineales. Los coecientes de la mascarilla en-
tonces pueden ser calculados resolviendo este sistema de desigualdades. Ademas de esto, la simulacion en
una computadora digital es muy simple, ya que no se hace necesario un sosticado algoritmo de integracion.
En forma general podemos representar el funcionamiento de una red neuronal celular (el de una capa,
multicapa o tiempo discreto) mediante la siguiente gura.
Figura 7: Arquitectura de una Red Neuronal Celular
6. Aplicaciones
Una RNC, debido a su estructura, pueden ser aplicadas para cualquier problema donde la estructura de
los datos se halle distribuida en un arreglo regular. A continuacion se presentara un ejemplo enfocado a la
morfogenesis.
6.1. Morfogenesis empleando una RNC
La morfogenesis se reere al estudio de los procesos que describen la formacion de los patrones que se
observan en la naturaleza. A traves de la historia se han realizado diversos trabajos relacionados con el area;
entre los mas importantes se encuentra el llevado a cabo por Alan Turing en 1952, donde demostraba como
un simple modelo de reaccion-difusion permite generar algunos de estos patrones. En la actualidad, uno de
los modelos mas aceptados que se basa en el mismo principio es el llamado sistema Gierer-Meinhardt, en
honor a sus autores, y el cual esta descrito por:
A
t
= F(A, B) +D
A
2
A
B
t
= G(A, B) +D
B
2
B
Para esta ecuacion, A y B representan concentraciones qumicas de elementos llamados activador e inhibidor
respectivamente, F() y G() son funciones no lineales y D
A
y D
B
son los coecientes de difusion. De estos,
el activador crea la inestabilidad que permite la formacion de patrones, mientras que el inhibidor aporta la
estabilidad al sistema una vez que el patr on ha sido creado. Ambos qumicos se difunden por el espacio, pero
si se ha de estabilizar el sistema es necesario que el inhibidor se difunda mucho mas rapido que el activador
(D
B
>> D
A
).
Ahora bien, a pesar de que la ecuacion en general puede ser descrita como un modelo de segundo orden,
algunos de los patrones creados con este pueden ser llevados a cabo en una RNC a pesar de ser un modelo
de primer orden.
Como ya se explico, el elemento qumico que permite la inhibicion debe difundirse mucho mas rapido que el
de excitacion. En una RNC, esto se puede conseguir haciendo r = 2, y permitiendo que los elementos que
esten en el lmite de la vecindad, inhiban a la celula, al multiplicarlos por un factor negativo; mientras que
los elementos mas proximos a esta, haran las veces de activadores al multiplicarlos por un factor positivo.
De esta forma se tiene la interaccion necesaria de los dos elementos basicos.
Teniendo en cuenta estas consideraciones, solo hace falta denir un objeto de estudio adecuado. Un ejemplo
interesante podra ser el que se encuentra en las pieles de felinos, por presentar diversos comportamientos;
en particular en la piel del leopardo y algunos gatos, ya que mientras su cuerpo y la parte inicial de la cola
esta conformada por manchas, en la parte terminal de la cola se cuenta con rayas. Esto nos lleva a considerar
una de dos posibles respuestas, o bien existe una regla que es sensible a la estructura del cuerpo que se
analiza o si no, hay fenomenos que alteran la regla de acuerdo a la porcion que esta siendo analizada. El
problema con esta ultima hipotesis se debe al hecho de que desde el punto de vista biologico, esto equivaldra
a decir que solo algunas porciones del cuerpo se veran afectadas por alg un fenomeno externo, de manera
contraria a lo que com unmente ocurre.
Para una RNC, los parametros son invariantes en el espacio y el tiempo, y el cambio en la estructura (re-
tomando el ejemplo de la cola) se puede conseguir simulando un cilindro que reduce su diametro conforme
se aproxima a uno de los extremos.
Para el sistema, la regla de la RNC sera gobernada por la siguiente mascarilla:
A
_
_
0,25 1 1,5 1 0,25
1 2,5 7 2,5 1
1,5 7 23,25 7 1,5
1 2,5 7 2,5 1
0,25 1 1,5 1 0,25
_
_
; B 0; I 0,7
aunque aqu no se presenta, los valores para de esta mascarilla pueden ser obtenidos tomando su Transfor-
mada Discreta de Fourier y analizando su comportamiento en el espacio.
Los valores que la RNC utiliza como punto de partida son n umeros entre -0.1 y 0.1, los cuales son asignados
a la variable de estado X(0); estos valores estan distribuidos de manera uniforme tal y como se muestra en
la Figura 8.
Figura 8: a) Entrada a una RNC para el modelado de la cola de un leopardo. Los valores presentados son
aleatorios con una distribucion uniforme para valores entre -0.1 y 0.1. Las imagenes b-d) son los resultados
generados por una RNC empleando la mascarilla previamente presentada; notese como a pesar de que se
utiliza una misma regla para todas las celulas se pueden distinguir varios comportamientos gracias a que la
estructura del cuerpo no es la misma para todas sus porciones.
Lo anterior se debe a que en principio se puede armar que los elementos que permiten la activacion y la
inhibicion del sistema se encuentran distribuidos en peque nas cantidades por todo el espacio del sistema.
Ademas considerando siempre una entrada aleatoria se podra obtener una innidad de patrones, inclusive en
presencia de peque nas variaciones, como se muestra en la Figura 8.b-d; mas a un as es claro que los resultados
contin uan con el mismo comportamiento basico, que es precisamente lo que se distingue del analisis visual
de las pieles de los felinos.
Una anotacion importante se debe al hecho de que si bien la entrada mostrada en la Figura 8.a luce como
un area rectangular, en realidad la porcion con la que se trabaja no corresponde a su totalidad; en realidad
se emplean 8 RNCs conectadas entre s cuyas dimensiones son M 24 y N 24, 22, 20, 18, 16, 14, 12, 10;
con condiciones de reexion en los lmites derecho e izquierdo y de periodicidad arriba y abajo, gracias a lo
cual las celulas en los lmites no tienen que considerarse como un caso particular, ademas, la condicion de
reexion genera una estructura en forma de cilindro, que para este caso tiene un radio que decrece hacia un
extremo.
El comportamiento de esta RNC es particularmente interesante, ya que como puede ser observado en la
Figura 8.b-d, este se ve afectado debido a que las dimensiones no son iguales en todas sus porciones, por
lo que, mientras que en el extremo mas ancho se distinguen manchas el mas angosto genera anillos como
resultado. Una explicacion un poco mas extensa acerca del tema sobre morfogenesis puede ser encontrada
en el artculo de Morfogenesis utilizando RNC [4] presentado en la Revista del Centro de Investigacion de la
Universidad la Salle.
Referencias
[1] Chua y Yang, Cellular Neural Networks: Theory, IEEE Trans. Circuits and Systems, CAS-35, 1257-1272
(1988).
[2] Chua y Yang, Cellular Neural Networks: Applications, IEEE Trans. Circuits and Systems, CAS-35,
1273-1290 (1988).
[3] Flores y Gomez, Tutorial sobre Redes Neuronales Celulares: Aplicacion al Procesamiento de Imagenes,
LIDETEA, Universidad La Salle, Mexico.
[4] Flores Memdez & Gomez-Ramrez, Morphogenesis with Cellular Neural Networks, LIDETEA, Univer-
sidad La Salle, Mexico.