Beruflich Dokumente
Kultur Dokumente
Los vectores de estimulación son un medio perfectamente eficaz para representar cosas
tan diversas como sabores, rostros y complicadas posiciones de las extremidades. Si el
cerebro utiliza vectores para codificar diversas entradas sensoriales y también diversas
salidas motoras, entonces en algún lugar debe estar efectuando cálculos para que las
entradas de algún modo estén guiando o produciendo las salidas.
Cerebelo: como está formado por miles de millones de conexiones sinápticas, cada una
de las cuales contribuye solo en una muy pequeña porción de la transformación total ed
los vectores, la pérdida de unos pocos miles de conexiones aquí y allá no cambiará la
conducta global de la red. Incluso puede perder millones de conexiones mientras estén
dispersas aleatoriamente por la red. Estas redes son funcionalmente modificables. Son
plásticas. Pueden cambiar sus propiedades de transformación simplemente cambiando
algunos o todos sus pesos sinápticos. Es un hecho importante, ya que el sistema debe
poder aprender a producir movimientos coordinados en primer lugar, y luego
reaprender continuamente, a medida que el tamaño y la masa de las extremidades
cambian lentamente con la edad.
Las nuevas redes neuronales tienen una o más capas de unidades “ocultas” que
intervienen entre los niveles de entrada y de salida, mientras que las primeras
solamente tenían una capa de entrada y de salida. La ventaja de la capa intermedia es
que, dentro de ella, el sistema puede analizar estímulos posibles que no están
explícitamente representados en los vectores de entrada. Esto permite al sistema
teorizar.
Regla delta generalizada: regla de aprendizaje muy poderosa, pues permite que una red
analice el espacio vectorial de sus unidades ocultas y encuentre transformaciones
efectivas de toda clase posible. Permite que una gran red encuentre un complejo
conjunto de pesos que nunca podríamos haber identificado como correctos con
anticipación.
Hay un sentido claro en el que se puede decir que la red "A" entrenada almacena
información sobre la verdad o falsedad de las proposiciones 1-16, ya que cuando
cualquiera de estas proposiciones se presenta a la red juzga correctamente si la
proposición es verdadero o falso. A este respecto esto es similar a varios modelos de
redes semánticas que pueden ser construidas para hacer la misma tarea. Hay una
diferencia sorprendente entre la red A y la red semántica de la figura 9.1. En la red
semántica hay una sub-parte funcionalmente distinta asociada a cada proposición, y por
lo tanto es factible preguntar, para cada prueba de la red, si la representación de una
proposición en la red juega un rol causal o no. En la red conexionista, en cambio, no
hay un estado o parte distinta que sirva para representar una proposición en particular.
La información codificada en la red A es almacenada holísticamente y distribuida por
toda la red. Cuando sea que la información es extraída de la red A, dando un string de
entrada y viendo si computa unn valor alto o bajo para el nodo output, muchos pesos,
muchos valores y muchos nodos ocultos juegan un rol causal en la computación. Cada
peso particular o nodo nos ayudará a codificar información sobre muchas proposiciones
diferentes. No tiene sentido preguntarse si la representación de una proposición
particular juega un rol causal en la computación de la red. Es por ello que nuestro
modelo conexionista de la memoria parece radicalmente incongruente con la
modularidad proposicional de la FP. La FP parece presuponer que hau alguna respuesta
general a la pregunta de si una creencia particular o recuerdo juega un rol causal en un
episodio cognitivo específico. Pero si la creencia y el recuerdo están apoyados por una
red conexionsita comom la nuestra, estas cuestiones no parecen tener un sentido claro.
(citar los dos últimos puntos.)