Sie sind auf Seite 1von 7

BAM (Memoria Asociativa Bidireccional)

INTRODUCCION
La BAM consta de dos capas de elementos que estn completamente interconectados
entre capas. Las unidades pueden o no tener conexiones de retroalimentacin consigo
mismas.

La BAM que se muestra posee n unidades en la capa x, y m unidades en la capa y, se


denomina al vector x de entrada, y al vector y de salida. En Esta red e. Todas las
conexiones entre unidades son bidireccionales, con pesos en ambos extremos. La
informacin va y viene de una capa a la otra, a travs de estas conexiones. Las
conexiones de retroalimentacin de cada unidad pueden no estar presentes en toda la
arquitecturas BAM.
Arquitectura de la BAM.

La red consiste en 2 capas las cuales pueden ser de diferentes dimensiones.

Ninguna de las capas pueden ser intrnsecamente denominadas como de entrada


o de salida.

A las capas se le denominan capa-X y capa-Y respectivamente.

Ambas capas se encuentran bien conectadas

No existen conexiones laterales entre las neuronas dentro de la misma capa

Las conexiones entre las capas son bidireccionales (las funciones de la red de
manera iterativa envan seales atrs y delante entre las capas hasta que el
equilibrio se ha alcanzado.

Al igual que en otras redes neuronales, en la arquitectura de la BAM existen pesos que se
asocian a las conexiones entre elementos de un proceso. A diferencia de otras
arquitecturas, estos pesos se determinan por anticipado, as es posible identificar a todos
los vectores de entrenamiento.
Se toma el procesamiento del modelo del asociador lineal para construir la matriz de
pesos. Dados L pares de vectores que constituyen al conjunto de ejemplares que
deseamos almacenar, se construye la matriz:

Esta ecuacin genera los pesos de las conexiones procedentes de la capa x, con destino
en la capa y. Por ejemplo, el valor w23 es el peso de la conexin procedente de las
tercera unidad de la capa x, con destino en la segunda unidad de la capa y. Para construir
los pesos de las unidades de la capa x, slo hay que tomar la transpuesta de la matriz de
pesos, wt. Se transforma la BAM en una memoria autoasociativa construyendo la matriz
de pesos en la forma siguiente:

En este caso la matriz de pesos es cuadrada y simtrica.


Procesamiento en la BAM.
Una vez que se construye la matriz de pesos, la BAM se emplea para recordar
informacin, (por ejemplo un nmero de telfono), al presentarse una cierta informacin

clave (el nombre correspondiente a un nmero de telfono concreto). Si la informacin


slo se conoce parcialmente por anticipado, o si se tiene ruido (un timbre mal escrito,
como pudiera ser <<Perec>>), la BAM es capaz de completar la informacin (produciendo
la ortografa correcta, <<Perez>>, y el nmero de telfono correspondiente).

Para recordar informacin mediante la arquitectura BAM, se llevan a cabo los pasos
siguientes:

1. Se aplica un par de vectores inicial (x0, y0) a los elementos de proceso de la BAM.
2. Se propaga la informacin de la capa x a la capa y, y se actualizan los valores de las
unidades de la capa y. Aunque siempre se empieza por la propagacin de x a y, se
puede empezar en la direccin contraria.
3. Se vuelve a propagar la informacin ya actualizada hacia la capa x, y se actualizan las
unidades que se encuentran all.
4. Se repiten, 2 y 3 hasta que ya no existen cambios en las unidades de ambas capas.

Este algoritmo es lo que proporciona a la BAM su naturaleza bidireccional. Los trminos


entrada y salida se refieren a distintas magnitudes, dependen de la direccin real de la
propagacin. Por ejemplo, al pasar de la y a la x, el vector y se considera como entrada
de la red, y el vector x es la salida. Cuando la propagacin se hace partiendo de x para
llegar a y, sucede lo contrario.

Si todo va bien, el estado final, ya estable, recuerda alguno de los ejemplares previamente
empleado para construir la matriz de pesos. En este ejemplo se supone que se sabe algo
acerca del vector x deseado, quiz no se sepa nada acerca del vector y, asociado, se
espera que la salida final sea el ejemplar cuyo vector x1 sea el ms prximo al vector de
entrada original, x0, segn la distancia de Hamming. Esta situacin funciona bien si no se
sobrecargan ejemplares a la BAM.

Si se deposita demasiada informacin en una BAM, se produce el fenmeno Crosstalk


interferencia cruzada entre tramas ejemplares. La interferencia cruzada sucede si las
tramas ejemplares estn muy prximas entre s. La interaccin entre estas tramas
prximas dan lugar a la creacin de estados estables espurios. En ese caso, la BAM se
estabiliza en vectores sin sentido.

Matemticas de la RAM
El procesamiento bsico que realiza cada unidad de la BAM es similar al que se hace
mediante un elemento general de proceso. Las unidades calculan sumas de productos de
las entradas por los 4 pesos, para determinar un valor de entrada neto, en la capa y,

En donde netoy es el vector de valores de la capa y: En trminos de las unidades


individuales yi.

En la capa x,

Las magnitudes n y m son las dimensiones de las capas x e y, respectivamente. El valor


de salida para cada elemento de proceso depende del valor neto de la entrada, y del valor
actual de salida de esa capa. El nuevo valor de y en el instante t + 1, y(t+1), est
relacionado con el valor de y en el instante t, y(t), mediante

De manera similar, x (t+1) est relacionado con x(t) mediante

Vamos a ilustrar el procedimiento BAM con un ejemplo concreto.


Ejercicio 1).Se ilustra el procesamiento BAM con un ejemplo, sea:

Se hacen largos estos vectores a propsito, con objeto de minimizar la posibilidad de


interferencias cruzadas. El clculo a mano de la matriz de pesos es tedioso, pero la matriz
de pesos es dispersa.
La matriz de pesos se calcula como sigue:

Para hacer la primera prueba se selecciona un vector "x" con una distancia de 1 con
respecto al punto x1.

Esta situacin representa un ruido del vector de entrada, el vector inicial para "y" es uno
de los vectores de entrenamiento:

Obsrvese que en un problema real es posible que no se tenga un conocimiento previo


del vector de salida, si es necesario, se utiliza un vector bipolar aleatorio.
Se va a propagar primeramente desde x hasta y, las entradas netas de las unidades y
son:

El nuevo vector de y es:

Que es tambin uno de los vectores de entrenamiento:


propagacin de vuelta a la capa x, se obtiene:

Haciendo de nuevo la

Las pasadas anteriores no dan lugar a cambios, as que se ha terminado. La BAM


recuerda con xito al primer conjunto de entrenamiento.

Das könnte Ihnen auch gefallen