Sie sind auf Seite 1von 14

UNIVERSIDAD DEL TOLIMA

INGENIERIA DE SISTEMAS MODALIDAD A DISTANCIA

SEMESTRE 8

GUA 1: INTRODUCCION A LAS REDES NEURONALES E INTELIGENCIA COMPUTACIONAL

TUTOR ING. DIEGO MAURICIO PARRA LAGUNA CONTACTOS Correo: docdiegopar@gmail.com Telfono: 3118515349

APULO ABRIL DE 2013

REDES NEURONALES ARTIFICIALES Fundamentos, modelos y aplicaciones

DEFINICIN DE RED NEURONAL Existen numerosas formas de definir lo que son las redes neuronales, desde las definiciones cortas y genricas hasta las que intentan explicar ms detalladamente lo que significa red neuronal o computacin neuronal. Veamos algunos ejemplos en ambos casos: Una nueva forma de computacin, inspirada en modelos biolgicos. Un modelo matemtico compuesto por un gran nmero de elementos procesales organizados en niveles. un sistema de computacin hecho por un gran nmero de elementos simples, elementos de proceso muy interconectados, los cuales procesan informacin por medio de su estado dinmico como respuesta a entradas externas. [Hecht-Niesen 88a] Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organizacin jerrquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biolgico. [Kohonen 88c] Es necesario destacar que tales computadores neuronales no ejecutan las tpicas instrucciones de mquina de los computadores digitales, a menos que estn hechos para emular el comportamiento de las redes neuronales fsicas. En principio, la operacin de proceso bsico realizada por todos los procesadores elementales es una operacin anloga de transformacin de sus seales de entrada. En las redes neuronales biolgicas, las clulas neuronales (neuronas) corresponden a los elementos de proceso anteriores. Las interconexiones se realizan por medio de las ramas de salida (axones) que producen un nmero variable de conexiones (sinapsis) con otras neuronas (o quiz con otras partes, como msculos y glndulas). Las redes neuronales son sistemas de simples elementos de proceso muy interconectados. La compleja operacin de las redes neuronales, es el resultado de abundantes lazos de realimentacin junto con no linealidades de los elementos de proceso y cambios adaptativos de sus parmetros, que pueden definir incluso fenmenos dinmicos muy complicados. Una peculiaridad de las redes neuronales biolgicas es su tamao: en todo el sistema nervioso central hay del orden 1011 neuronas, pero el nmero de interconexiones es an mayor, probablemente sobre las 1015 . No parece posible programar las funciones de dicho sistema de acuerdo con un plan principal, teniendo en cuenta adems que el

tamao y la estructura de la red estn cambiando radicalmente durante y despus de la niez, cuando est ya en uso. Es verdad que ciertos caracteres textuales de la red son inherentes, y durante la ontognesis las proyecciones neuronales crecen aproximadamente hacia aquellos lugares en los cuales sern necesitados ms tarde. En otras palabras, la distribucin de los recursos y los caminos de comunicacin ms importantes estn formados de acuerdo con un plan gentico, mientras que el resto del programming en especial la memoria, debe ser adquirido despus de nacer. Programar tal red puede significar slo dos cosas: a) Las estructuras de interconexin entre las clulas son alteradas, y b) Las fuerzas de estas interconexiones son cambiadas. Parece que existen bastantes estrategias claras de cmo cambiar las fuerzas en la direccin correcta, mientras que cambios en las interconexiones son ms difciles de definir, porque suelen tener efectos radicales en el comportamiento de la red, especialmente en lo concerniente a la operacin secuencial y las funciones jerrquicas. Es muy difcil imaginar cmo una red tan enorme puede programada. Una posibilidad, con relacin a los subsistemas sensoriales, podra ser que la estructura del sistema, o el proceso dinmico definido por l, de alguna forma tiende a imaginar las experiencias sensoriales de otros acontecimientos. Otra funcin importante del sistema nervioso es definir acciones que son parte del comportamiento, y controlar el estado del organismo en relacin con su entorno. Mientras que las representaciones internas en las cuales est basado el comportamiento pueden ser derivadas de las entradas de forma bastante directa, las definiciones de las salidas deben estar basadas en estrategias completamente diferentes. De hecho, apenas existe otra posibilidad para programar las acciones que aplicar el principio de retroceso y empuje para alterar los mecanismos que son responsables de ellas. Algn tipo de backpropagation de la informacin es, por tanto necesario. Por otro lado, el significado y la calidad de las acciones deben ser juzgados no desde los movimientos inmediatos, sino desde la realizacin de criterios que tienen en cuenta el resultado requerido, a veces bastante indirectamente. A menudo, las acciones son solamente corregidas si se realizan con cierta frecuencia, donde el mecanismo que las provoque debe contener circuitos que definan tales frecuencias y que se cambien en relacin con los resultados aprendidos. Est claro que programar las acciones es un proceso mucho ms indirecto que programar las representaciones internas; el factor aleatorio no puede ser evitado. Programando las funciones de entrada y de salida nos lleva slo a una operacin de comportamiento en la que el estmulo y la respuesta son consideradas muy relevantes. Ciertamente, es posible realizar autmatas bastantes complejos y comportamientos necesidad-conducta de este modo. Sin embargo, se mantiene la expectativa sobre la posibilidad de que las redes neuronales puedan actuar como ordenadores para algunos

problemas abstractos y tambin donde la computacin se realice en el estado interno de la red.

VENTAJAS DE LAS REDES NEURONALES Debido a su constitucin y a sus fundamentos, las redes neuronales artificiales presentan un gran nmero de caractersticas semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer caractersticas esenciales a partir de entradas que representan informacin irrelevante, etc. Esto hacer que ofrezcan numerosas ventajas y que este tipo de tecnologa se est aplicando en mltiples reas. Estas ventajas incluyen [Maren 90]: * * * Aprendizaje adaptativo. Capacidad de aprender a realizar tareas basada en un entrenamiento o una experiencia inicial. Autoorganizacin. Una red neuronal puede crear su propia organizacin o representacin de la informacin que recibe mediante una etapa de aprendizaje. Tolerancia a fallos. La destruccin parcial de una red conduce a una degradacin de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran dao. Operacin en tiempo real. Los computadores neuronales pueden ser realizados en paralelo, y se disean y fabrican mquinas con hardware especial para obtener esta capacidad. Fcil insercin dentro de la tecnologa existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitar la integracin modular en los sistemas existentes.

Aprendizaje Adaptativo La capacidad de aprendizaje adaptativo es una de las caractersticas ms atractivas de las redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos ilustrativos. Como las redes neuronales pueden aprender a diferenciar patrones mediante ejemplos y entrenamiento, no es necesario que elaboremos modelos a priori ni necesitamos especificar funciones de distribucin funciones de distribucin de probabilidad. Las redes neuronales son sistemas dinmicos autoadaptativos. Son adaptables debido a la capacidad de autoajustarse de los elementos procesales (neuronas) que componen el sistema. Son dinmicos, pues son capaces de estar constantemente cambiando para adaptarse a las nuevas condiciones. En el proceso de aprendizaje, los enlaces ponderados de las neuronas se ajustan de manera que se obtengan unos resultados especficos. Una red neuronal no necesita un algoritmo para resolver un problema, ya que ella puede generar su propia distribucin

de los pesos de los enlaces mediante el aprendizaje. Tambin existen redes que continan aprendiendo a lo largo de su vida, despus de completado el perodo inicial de entrenamiento. La funcin del diseador es nicamente la obtencin de la arquitectura apropiada. No es problema del diseador el cmo la red aprender a discriminar; sin embargo, s es necesario que desarrolle un buen algoritmo de aprendizaje que proporcione la capacidad de discriminar de la red mediante un entrenamiento con patrones.

Autoorganizacin Las redes neuronales usan su capacidad de aprendizaje adaptativo para autoorganizar la informacin que reciben durante el aprendizaje y/o la operacin. Mientras que el aprendizaje es la modificacin de cada elemento procesal, la Autoorganizacin consiste en la modificacin de la red neuronal completa para llevar a cabo de un objetivo especfico. Cuando las redes neuronales se usan para reconocer ciertas clases de patrones, ellas se autoorganizan la informacin usada. Por ejemplo, la red llamada backpropagation, crear su propia representacin caracterstica, mediante la cual puede reconocer ciertos patrones. Esta Autoorganizacin provoca la generalizacin: facultad de las redes neuronales de responder apropiadamente cuando se les presentan datos o situaciones a los que no haban sido expuestas anteriormente. El sistema puede generalizar la entrada para obtener una respuesta. Esta caracterstica es muy importante cuando se tienen que solucionar problemas en los cuales la informacin de entrada es poco clara; adems, permite que el sistema d una solucin incluso cuando la informacin de entrada est especificada de forma incompleta.

Tolerancia a fallos Las redes neuronales son los primeros mtodos computacionales con la capacidad inherente de tolerancia a fallos. Comparados con los sistemas computacionales tradicionales, los cuales pierden su funcionalidad en cuanto sufren un pequeo error de memoria, en las redes neuronales, si se produce un fallo en un pequeo nmero de neuronas, aunque el comportamiento del sistema se ve influenciado, sin embargo no sufre una cada repentina. Hay dos aspectos distintos respecto a la tolerancia a fallos: primero, las reden pueden aprender a reconocer patrones con ruido, distorsionados o incompletos, sta es una tolerancia a fallos respecto a los datos. Segundo, pueden seguir realizando su funcin (con cierta degradacin) aunque se destruya parte de la red.

La razn por la que las redes neuronales son tolerantes a los fallos es que tienen su informacin distribuida en las conexiones entre neuronas, existiendo cierto grado de redundancia en este tipo de almacenamiento. La mayora de los ordenadores algortmicos y sistemas de recuperacin de datos almacenan cada pieza de informacin en un espacio nico, localizado y direccionable. Las redes neuronales almacenan informacin no localizada. Por tanto, la mayora de las interconexiones entre los nodos de la red tendrn unos valores en funcin de los estmulos recibidos, y se generar un patrn de salida que represente la informacin almacenada.

Operacin en tiempo real Una de las mayores prioridades de la mayora de las reas de aplicacin, es la necesidad de realizar grandes procesos con datos de forma muy rpida. Las redes neuronales se adaptan bien a esto debido a su implementacin paralela. Para que la mayora de las redes puedan operan en un entorno de tiempo real, la necesidad de cambio en los pesos de las conexiones o entrenamiento es mnima. Por tanto, de todos los mtodos posibles, las redes neuronales son la mejor alternativa para reconocimiento y clasificacin de patrones en tiempo real.

Fcil insercin dentro de la tecnologa existente Una red individual puede ser entrenada para desarrollar una nica y bien definida tarea (tareas complejas, que hagan mltiples selecciones de patrones, requerirn sistemas de redes interconectadas). Debido a que una red puede ser rpidamente entrenada, comprobada, verificada y trasladada a una implementacin hardware de bajo coste, es fcil insertar redes neuronales para aplicaciones especficas dentro de sistemas existentes. De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas de forma incremental, y cada paso puede ser evaluado antes de acometer un desarrollo ms amplio.

REDES NEURONALES Y COMPUTADORES DIGITALES Para entender el potencial real de la computacin neuronal, ser necesario hacer una clara distincin entre sistemas de computacin neuronales y digitales: Los sistemas neurolgicos biolgicos no aplican a principios de circuitos lgicos o digitales. Un sistema de computacin digital debe ser sncrono y asncrono. Si fuera asncrono, la duracin de los impulsos neuronales debera ser variable para mantener uno de los valores binarios por perodos de tiempo indefinidos, lo cual no es el caso. Si el principio fuera sncrono, se necesitara un reloj global con el cual los pulsos estn sincronizados.

ste tampoco es el caso. Las neuronas no pueden ser circuitos de umbral lgico, porque hay miles de entradas variables en la mayora de las neuronas y el umbral es variable con el tiempo, siendo afectado por la estimulacin, atenuacin, etc. La precisin y estabilidad de tales circuitos no es suficiente para definir ninguna funcin booleana. Los procesos colectivos que son importantes en computacin neuronal no pueden implementarse por computacin digital. Por todo ello, el cerebro debe ser un computador analgico. Ni las neuronas ni la sinapsis son elementos de memoria biestables. Todos los hechos fisiolgicos hablan a favor de las acciones de las neuronas como integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual. En la computacin neuronal no hay instrucciones de mquina ni cdigos de control. Debido a los problemas de estabilidad tratador anteriormente, el formato de estos cdigos no puede ser mantenido por periodos significativos de tiempo, en particular durante el periodo de crecimiento. Los circuitos del cerebro no implementan computacin recursiva, y por tanto no son algoritmos. Debido a los problemas de estabilidad, los circuitos neuronales no son suficientemente estables para definiciones recursivas de funciones como en computacin digital. Un algoritmo, por definicin, define una funcin recursiva. Incluso en el nivel ms alto, la naturaleza del proceso de informacin es diferente en el cerebro y en los computadores digitales. Para emular una con otra, al menos a cierto nivel de abstraccin, los estados internos de dos sistemas de computacin deben ser igualmente accesibles. Esta equivalencia no existe entre el cerebro y los sistemas de programacin. Los computadores artificiales no pueden adquirir ni interpretar todas las experiencias humanas en las cuales se basa el asentamiento de valores.

TIPOS DE REDES NEURONALES MS IMPORTANTES A continuacin se muestra una tabla resumen de los tipos de redes ms conocidos, comentando esquemticamente las aplicaciones ms importantes de cada una, sus ventajas e inconvenientes y quin o quines fueron sus creadores y en qu ao. Teora resonancia adaptativa (ART) Reconocimiento de patrones (radar, sonar, etc.). Sensible a la translacin, distorsin y escala. Gail Carpenter, Stephen Grossberg.

1986

Sofisticada. Poco utilizada.

ADALINE/ MADALINE

1960

Filtrado de seales. Ecualizador adaptativo. Modems.

Slo es posible Rpida, fcil de clasificar implementar con espacios circuitos analgicos linealmente o VLSI. separados.

Bernand Widrow

Back propagation

Sntesis de voz desde texto. Control de 1974robots. 85 Prediccin. Reconocimiento de patrones.

Red ms popular. Numerosas aplicaciones con xito. Facilidad de aprendizaje. Potente.

Necesita mucho tiempo para el aprendizaje y muchos ejemplos.

Paul Werbos, David Parker, David Rumelhart.

Memoria asociativa bidireccional

1985

Memoria heteroasociativa de acceso por contenido.

Aprendizaje y arquitectura simples.

Baja capacidad de almacenamiento. Bart Kosko Los datos deben ser codificados. La mquina de Boltmann necesita un tiempo muy largo de aprendizaje.

Mquina de Boltzmann y Cauchy

Reconocimiento 1985- de patrones 86 (imgenes, radar, sonar.).

Redes simples. Capacidad de representacin ptima de patrones.

Jeffrey Hinton, Terry Sejnowski, Harold Szu.

Brain-Estatein-a-Box.

1977

Extraccin de conocimiento de bases de datos. Control del movimiento de los brazos de un robot. Compresin de imgenes

Realizacin y Posiblemente mejor potenciales realizacin que las aplicaciones no redes de Hopfield estudiadas totalmente. Semejante a Avalancha Requiere complicadas entradas de control. Numerosas neuronas y conexiones.

James Anderson

Cerebellatron

1969

David Marr, James Albus, Andres Pellionez. Robert HechtNielsen

Counterpropagation

1986

Combinacin de Perceptron y TPM.

Hopfield

1982

Reconstruccin de patrones y optimizacin.

Puede implementarse en VLSI. Fcil de conceptualizar.

Capacidad y estabilidad.

John Hopfield

Neocognitron

Reconocimiento 1978de caracteres 84 manuscritos

Requiere muchos Insensible a la elementos de translacin, rotacin K. Fukushima proceso, niveles y escala. y conexiones. No puede La red ms antigua. reconocer Construida con HW. caracteres complejos.

Perceptron

1957

Reconocimiento de caracteres impresos

Frank Rosenblatt

Selforganizing Map (SOM). TopologyPreserving Map (TPM).

Reconocimiento de patrones, 1980codificacin de 84 datos, optimizacin

Realiza mapas de caractersticas comunes de los datos aprendidos.

Requiere mucho entrenamiento.

Teuvo Kohonen

Tabla 1. Caractersticas de los tipos de redes neuronales ms importantes (Adaptada de [Hecht-Nielsen 88a])

HERRAMIENTAS SOFTWARE DE DESARROLLO

La comercializacin de productos software ha sido y sigue siendo la forma ms extendida para simular redes neuronales debido a las ventajas citadas anteriormente. La diferencia entre los distintos productos software radica en aspectos tales como el tipo y nmero de arquitecturas de red que soporta (backpropagation, Hopfield, Kohonen, etc.), velocidad de procesamiento (nmero de conexiones por unidad de tiempo), interfaz grfica, exportacin del cdigo C para el desarrollo automtico de aplicaciones, etc. Respecto a las herramientas software desarrolladas en Europa, hay que citar la obtenida del proyecto ESPRIT, no comercializada todava y que funciona en estaciones de trabajo con sistema operativo UNIX y con interfaz grfica basada en X-windows. En Espaa, el grupo de redes neuronales del Instituto de Ingeniera del Conocimiento ha desarrollado el producto comercial SARA (Shell de Algoritmos de Retropropagacin Adaptativa), el cual presenta como nica arquitectura disponible el Perceptrn multicapa, utilizando la denominada regla delta como mecanismo de aprendizaje, y como medio de correccin de errores, distintas versiones del algoritmo backpropagation. A su vez, funciona sobre una gran variedad de mquinas y entornos, desde PC a mainframes.

En el momento actual existen un nmero bastante elevado de productos software para el desarrollo de aplicaciones de redes neuronales. A la hora de decidirse por la utilizacin de una u otra, conviene tener muy claro el tipo de uso que se va a hacer de la misma. Es preferible elegir entre aquellos productos que se centran en pocas arquitecturas, pues, en muchos casos, cuando ofrecen una gran variedad de las mismas, no todas las incluidas son plenamente funcionales. Otros aspectos importantes a tener en cuenta son, por ejemplo, la forma de leer los datos durante la fase de aprendizaje (si se leen del disco en vez de la memoria, el proceso se hace largo y tedioso), la inclusin de mdulos para el anlisis de resultados o la posibilidad de generar cdigo C incluyendo los pesos obtenidos. Producto ANSim AnSkit Autonet Brain Maker DynaMind ExperNet Genesis HNet MacBrain NetBuilder NETS NeuralCASE Neuraldesk Neurokit NeuroShell NeuralWorks Explorer N-Net SARA ExploreNet Neural Network Utility/2 Neural Network Utility/400 Neuralworks Pro II/Plus Vendedor SAIC SAIC Peak Software California Scientific Software NeuroDynamix ImageSoft Neural Systems AND America Neurix NeuralWare COSMIC/NASA Neuro/Sym Neural Computer Sciencess Software Bytes Ward Systems NeuralWare AI Ware IIC HNC IBM IBM Hardware PC PC PC PC; PS/2; Mac PC PC PC PC (ANDcoprocessor) Mac PC PC; Mac; V AX; Sun; HP 9000 PC PC PC PC PC; Mac PC; PS/2; Sun; SPARC; VAX PC; PS/2 PC PS/2 AS/400 PC; PS/2; Mac; RS/6000; Sun; SPARC; DEC; HP; Silicon Graphics Sistema Operativo DOS DOS DOS DOS DOS DOS; Windows DOS DOS; Windows DOS DOS; UNIX; VMS DOS Windows DOS DOS DOS: Mac DOS; UIX; VMS DOS DOS; Windows DOS; Windows; OS/2 OS/400 DOS; OS/2; UNIX; VMS

NeuralWare

Tabla de Herramientas de desarrollo software comerciales [Singenza 93]

EL MODELO BIOLGICO La teora y modelado de redes neuronales artificiales est inspirada en la estructura y funcionamiento de los sistemas nerviosos, donde la neurona es el elemento fundamental. Existen neuronas de diferentes formas, tamaos y longitudes. Estos atributos son importantes para determinar la funcin y utilidad de la neurona. La clasificacin de estas clulas en tipos estndar ha sido realizada por muchos neuroanatomistas. Estructura de la neurona Una neurona es una clula viva y, como tal, contiene los mismos elementos que forman parte de todas las clulas biolgicas. Adems, contienen elementos caractersticos que las diferencian. En general, una neurona consta de un cuerpo celular ms o menos esfrico, de 5 a 10 micras de dimetro, del que salen una rama principal, el axn, y varias ramas ms cortas, llamadas dendritas. A su vez, el axn puede producir ramas en torno a su punto de arranque, y con frecuencia se ramifica extensamente cerca de su extremo. Una de las caractersticas que diferencian a las neuronas del resto de las clulas vivas, es su capacidad de comunicarse. En trminos generales, las dendritas y el cuerpo celular reciben seales de entrada; el cuerpo celular las combina e integra y emite seales de salida. El axn transporta esas seales a los terminales axnicos, que se encargan de distribuir informacin a un nuevo conjunto de neuronas. Por lo general, una neurona recibe informacin de miles de otras neuronas y, a su vez, enva informacin a miles de neuronas ms. Se calcula que en el cerebro humano existen del orden de 1015 conexiones.

Naturaleza bioelctrica de la neurona Las seales que se utilizan, y a las que nos estamos refiriendo, son de dos tipos distintos de naturaleza: elctrica y qumica. La seal generada por la neurona y transportada a lo largo del axn es un impulso elctrico, mientras que la seal que se transmite entre los terminales axnicos de una neurona y las dendritas de las neuronas siguientes es de origen qumico; concretamente, se realiza mediante molculas de sustancias transmisoras (neurotransmisores) que fluyen a travs de unos contactos especiales, llamados sinapsis, que tienen la funcin de receptor y estn localizados entre los terminales axnicos y las dendritas de la neurona siguiente (espacio sinptico, entre 50 y 200 Angstroms). La generacin de las seales elctricas est ntimamente relacionada con la composicin de la membrana celular. Existen muchos procesos complejos relacionados con la generacin de dichas seales, sin embargo se pueden simplificar del siguiente modo: la neurona, como todas las clulas, es capaz de mantener en su interior un lquido cuya composicin difiere marcadamente de la composicin del lquido de exterior. La diferencia ms notable se da en relacin con la concentracin de los iones sodio y potasio. El medio externo es unas 10 veces ms rico en sodio que el interno, mientras que el medio interno es unas 10 veces ms rico en potasio que el externo. Esta diferencia de concentracin en iones sodio y potasio a cada lado de la membrana produce una diferencia de potencial de aproximadamente 70 milivoltios, negativa en el interior de la clula. Es lo que se llama potencial de reposo de la clula nerviosa.

Propagacin del impulso elctrico a lo largo del axn. Afluencia localizada de iones sodio (+ ) seguida de una salida de iones potasio (K) [AEIA 91]. La llegada de seales procedentes de otras neuronas a travs de las dendritas (recepcin de neurotransmisores) acta acumulativamente, bajando ligeramente el valor del potencial de reposo. Dicho potencial modifica la permeabilidad de la membrana, de manera que cuando llega a cierto valor crtico comienza una entrada masiva de iones sodio que invierten la polaridad de la membrana.

La inversin del voltaje de la cara interior de la membrana cierra el paso a los iones sodio y abre el paso a los iones potasio hasta que se restablece el equilibrio en reposo. La inversin del voltaje, conocida como potencial de accin, se propaga a lo largo del axn y, a su vez, provoca la emisin de los neurotransmisores en los terminales axnicos.

La inversin de voltaje (potencial de accin) cierra el canal de sodio y abre el canal de potasio. La salida de iones potasio restablece rpidamente el potencial negativo [AEIA 91] Despus de un pequeo periodo refractario, puede seguir un segundo impulso. El resultado de todo esto es la emisin por parte de la neurona de trenes de impulsos cuya frecuencia vara en funcin (entre otros factores) de la cantidad de neurotransmisores recibidos. Existen dos tipos de sinapsis: a) las sinapsis excitadoras, cuyos neurotransmisores provocan disminuciones de potencial en la membrana de la clula postsinptica, facilitando la generacin de impulsos a mayor velocidad, y b) las sinapsis inhibidoras, cuyos neurotransmisores tienden a estabilizar el potencial de la membrana, dificultando la emisin de impulsos. Casi todas las neuronas reciben entradas procedentes de sinapsis excitadoras e inhibidoras. En cada instante, alguna de ellas estarn acticas y otras se hallarn en reposo; la suma de los efectos excitadores e inhibidores determina si la clula ser o no estimulada; es decir, si emitir o no un tren de impulsos y a qu velocidad. Para establecer una similitud directa entre la actividad sinptica y la analoga con las redes neuronales artificiales, vamos a fijar los siguientes aspectos: Las seales que llegan a la sinapsis son las entradas a la neurona; stas son ponderadas (atenuadas o amplificadas) a travs de un parmetro, denominado peso, asociado a la sinapsis correspondiente. Estas seales de entrada pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa (da salida). Esta es una situacin todo o nada; cada neurona se activa o no se activa. La facilidad de transmisin de seales se altera mediante la actividad del sistema nervioso.

Las sinapsis son susceptibles a la fatiga, deficiencia de oxgeno y a agentes tales como los anestsicos. Otros eventos pueden incrementar el grado de activacin. Esta habilidad de ajustar seales es un mecanismo de aprendizaje. Las funciones umbral integran la energa de las seales de entrada en el espacio y en el tiempo.

UNIDADES DE PROCESO: LA NEURONA ARTIFICIAL Si se tienen N unidades (neuronas), podemos ordenarlas arbitrariamente y designar la jsima unidad como . Su trabajo es simple y nico, y consiste en recibir las entradas de las clulas vecinas y calcular un valor de salida, el cual es enviado a todas las clulas restantes. En cualquier sistema que se est modelando, es til caracterizar tres tipos de unidades: entradas, salidas y ocultas. Las unidades de entrada reciben seales desde el entonces; estas entradas (que son a la vez entradas a la red) pueden ser seales provenientes de sensores o de otros sectores del sistema. Las unidades de salida envan la seal fuera del sistema (salidas de la red); estas seales pueden controlar directamente potencias u otros sistemas. Las unidades ocultas son aquellas cuyas entradas y salidas se encuentran dentro del sistema; es decir, no tiene contacto con el exterior. Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede ser otra capa de neuronas).

Das könnte Ihnen auch gefallen