Sie sind auf Seite 1von 4

Redes Neuronales

Las Redes Neuronales son un campo muy importante dentro de la


Inteligencia Artificial. Inspir�ndose en el comportamiento conocido del cerebro
humano (principalmente el referido a las neuronas y sus conexiones), trata de crear
modelos artificiales que solucionen problemas dif�ciles de resolver mediante
t�cnicas algor�tmicas convencionales.
En esta p�gina web trataremos de acercar al visitante a este tema, mostrando
las bases neurol�gicas y matem�ticas, los principales modelos vigentes y ejemplos
interactivos que solucionan algunos problemas de forma eficaz.

UN POCO DE HISTORIA
Desde la d�cada de los 40, en la que naci� y comenz� a desarrollarse la
inform�tica, el modelo neuronal la ha acompa�ado. De hecho, la aparici�n de los
computadores digitales y el desarrollo de las teor�as modernas acerca del
aprendizaje y del procesamiento neuronal se produjeron aproximadamente al mismo
tiempo, a finales de los a�os cuarenta.

Desde entonces hasta nuestros d�as, la investigaci�n neurofisiol�gica y el estudio


de sistemas neuronales artificiales (ANS, Artificial Neural Systems) han ido de la
mano. Sin embargo, los modelos de ANS no se centran en la investigaci�n
neurol�gica, si no que toma conceptos e ideas del campo de las ciencias naturales
para aplicarlos a la resoluci�n de problemas pertenecientes a otras ramas de las
ciencias y la ingenier�a.

Podemos decir que la tecnolog�a ANS incluye modelos inspirados por nuestra
comprensi�n del cerebro, pero que no tienen por qu� ajustarse exactamente a los
modelos derivados de dicho entendimiento.

Los primeros ejemplos de estos sistemas aparecen al final de la d�cada de los


cincuenta. La referencia hist�rica m�s corriente es la que alude al trabajo
realizado por Frank Rosenblatt en un dispositivo denominado perceptr�n. Hay otros
ejemplos, tales como el desarrollo del Adaline por el profesor Bernard Widrow.

Durante todos estos a�os, la tecnolog�a ANS no siempre ha tenido la misma


consideraci�n en las ramas de la ingenier�a y las ciencias de la computaci�n, m�s
ansiosas de resultados que las ciencias neuronales. A partir de 1969, el pesimismo
debido a las limitadas capacidades del perceptr�n hizo languidecer este tipo de
investigaci�n.

A principios de los 80, por un lado Hopfield y sus conferencias acerca de la


memoria autoasociativa y por otro lado la aparici�n del libro Parallel Distributed
Processing (PDP), escrito por Rumelhart y McClelland reactivaron la investigaci�n
en el campo de las redes neuronales. Hubo grandes avances que propiciaron el uso
comercial en campos tan variados como el diagn�stico de enfermedades, la
aproximaci�n de funciones o el reconocimiento de im�genes.

Hoy en d�a, la tecnolog�a ANS no est� en su mejor momento, pero a pesar de ello
existen revistas, ciclos de conferencias, etc; que mantienen v�as de investigaci�n
abiertas.

LA NEURONA BIOL�GICA
Fue Ram�n y Cajal (1888) qui�n descubri� la estructura celular (neurona)
del sistema nervioso. Defendi� la teor�a de que las neuronas se interconectaban
entre s� de forma paralela, y no formando un circuito cerrado como el sistema
sangu�neo.

Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del


que surge un denso �rbol de ramificaciones (dendritas) y una fibra tubular (ax�n)
de entre 100 mm y un metro.

De alguna forma, una neurona es un procesador de informaci�n muy simple:

� Canal de entrada: dendritas.

� Procesador: soma.

� Canal de salida: ax�n.

Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez
su salida a varios cientos de neuronas.

La conexi�n entre neuronas se llama sinapsis. No es una conexi�n f�sica, si no que


hay unos 2 mm de separaci�n. Son conexiones unidireccionales, en la que la
transmisi�n de la informaci�n se hace de forma el�ctrica en el interior de la
neurona y de forma qu�mica entre neuronas; gracias a unas sustancias espec�ficas
llamadas neurotransmisores.

No todas las neuronas son iguales, existen muchos tipos diferentes seg�n el n�mero
de ramificaciones de sus dendritas, la longitud del ax�n y otros detalles
estructurales. Sin embargo, como hemos visto, todas ellas operan con los mismos
principios b�sicos.

MODELO DE NEURONA ARTIFICIAL


El modelo de Rumelhart y McClelland (1986) define un elemento de proceso
(EP), o neurona artificial, como un dispositivo que a partir de un conjunto de
entradas, xi (i=1...n) o vector x, genera una �nica salida y.

Esta neurona artificial consta de los siguientes elementos:

� Conjunto de entradas o vector de entradas x, de n componentes

� Conjunto de pesos sin�pticos wij. Representan la interacci�n entre la


neurona presin�ptica j y la postsin�ptica i.

� Regla de propagaci�n d(wij,xj(t)): proporciona el potencial postsin�ptico,


hi(t).

� Funci�n de activaci�n ai(t)=f(ai(t-1), hi(t)): proporciona el estado de


activaci�n de la neurona en funci�n del estado anterior y del valor postsin�ptico.

� Funci�n de salida Fi(t): proporciona la salida yi(t), en funci�n del


estado de activaci�n.

Las se�ales de entrada y salida pueden ser se�ales binarias (0,1 �


neuronas de McCulloch y Pitts), bipolares (-1,1), n�meros enteros o continuos,
variables borrosas, etc.

La regla de propagaci�n suele ser una suma ponderada del producto escalar del
vector de entrada y el vector de pesos:

Tambi�n se usa a menudo la distancia eucl�dea entre ambos vectores:

Existen otro tipo de reglas menos conocidas como la distancia de Voronoi,


de Mahalanobis, etc.

La funci�n de activaci�n no suele tener en cuenta el estado anterior de la neurona,


sino s�lo el potencial hi(t). Suele ser una funci�n determinista y, casi siempre,
continua y mon�tona creciente. Las m�s comunes son la funci�n signo (+1 si hi(t)>0,
-1 en caso contrario), la funci�n semilineal y las funciones sigmoides:

La funci�n de salida suele ser la identidad. En algunos casos es un valor


umbral (la neurona no se activa hasta que su estado supera un determinado valor).

Con todo esto, el modelo de neurona queda bastante simplificado:

RED NEURONAL ARTIFICIAL


Una red neuronal artificial (RNA) se puede definir (Hecht � Nielssen 93)
como un grafo dirigido con las siguientes restricciones:

Los nodos se llaman elementos de proceso (EP).


Los enlaces se llaman conexiones y funcionan como caminos unidireccionales
instant�neos
Cada EP puede tener cualquier n�mero de conexiones.
Todas las conexiones que salgan de un EP deben tener la misma se�al.
Los EP pueden tener memoria local.
Cada EP posee una funci�n de transferencia que, en funci�n de las entradas y la
memoria local produce una se�al de salida y / o altera la memoria local.
Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son
conexiones que abandonan la RNA.

ARQUITECTURA DE LAS RNA


La arquitectura de una RNA es la estructura o patr�n de conexiones de la red.
Es conveniente recordar que las conexiones sin�pticas son direccionales, es decir,
la informaci�n s�lo se transmite en un sentido.

En general, las neuronas suelen agruparse en unidades estructurales llamadas capas.


Dentro de una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir
tres tipos de capas:

� De entrada: reciben datos o se�ales procedentes del entorno.

� De salida: proporcionan la respuesta de la red a los est�mulos de la


entrada.

� Ocultas: no reciben ni suministran informaci�n al entorno (procesamiento


interno de la red).

Generalmente las conexiones se realizan entre neuronas de distintas capas, pero


puede haber conexiones intracapa o laterales y conexiones de realimentaci�n que
siguen un sentido contrario al de entrada-salida.

APRENDIZAJE DE LAS RNA


Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la
arquitectura) con el prop�sito de que la red pueda llevar a cabo de forma efectiva
una tarea determinada.

Hay tres conceptos fundamentales en el aprendizaje:

Paradigma de aprendizaje: informaci�n de la que dispone la red.

Regla de aprendizaje: principios que gobiernan el aprendizaje.

Algoritmo de aprendizaje: procedimiento num�rico de ajuste de los pesos.

Existen dos paradigmas fundamentales de aprendizaje:

Supervisado: la red trata de minimizar un error entre la salida que calcula y la


salida deseada (conocida), de modo que la salida calculada termine siendo la
deseada.

No supervisado o autoorganizado: la red conoce un conjunto de patrones sin conocer


la respuesta deseada. Debe extraer rasgos o agrupar patrones similares.

En cuanto a los algoritmos de aprendizaje, tenemos cuatro tipos:

Minimizaci�n del error: reducci�n del gradiente, retropropagaci�n, etc.


La modificaci�n de pesos est� orientada a que el error cometido sea m�nimo.

Boltzmann: para redes estoc�sticas, donde se contemplan par�metros aleatorios.

Hebb: cuando el disparo de una c�lula activa otra, el peso de la conexi�n entre
ambas tiende a reforzarse (Ley de Hebb).

Competitivo: s�lo aprenden las neuronas que se acercan m�s a la salida deseada.

Los algoritmos, y en general el proceso de aprendizaje, son complejos y


suelen llevar bastante tiempo computacionalmente hablando. Su ventaja es que una
vez ha aprendido, la red puede congelar sus pesos y funcionar en modo recuerdo o
ejecuci�n.

Das könnte Ihnen auch gefallen