Sie sind auf Seite 1von 30

REDES NEURONALES

REDES NEURONALES

UNIVERSIDAD NACIONAL DE TRUJILLO


FACULTAD DE INGENIERA
ESCUELA DE INGENIERA DE SISTEMAS

TRABAJO DE INVESTIGACIN

REDES NEURONALES
CURSO:

Inteligencia Artificial

DOCENTE:

Ing. Luis Tenorio Cabrera

INTEGRANTES:
Glvez Mostacero, Jennifer
Len Ros, Jessica
Lingn Hernndez, Laura
Olrtiga Rodrguez, Grethell

GUADALUPE - 2016

INTELIGENCIA ARTIFICIAL 2

REDES NEURONALES

DEDICATORIA
A Dios, por nuestra gua espiritual para el logro de nuestros objetivos.
A nuestros padres por estar siempre con nosotros y apoyarnos constantemente ya
que sin ellos nunca hubisemos llegado a ejercer nuestra carrera.
A nuestro docente por brindarnos sus enseanzas y por ser un ejemplo a seguir.

INTELIGENCIA ARTIFICIAL 3

REDES NEURONALES

AGRADECIMIENTO
En primer lugar queremos agradecerle a Dios por darme la oportunidad de que
seamos alguien en la vida y cuidar de nuestra salud, el ms sincero
agradecimiento, en especial a la Facultad de Ingeniera, escuela de Ingeniera de
sistemas, personal docente y administrativo por brindarnos la oportunidad de
obtener una profesin y ser personas de bien para nuestra sociedad.
Es de suma importancia agradecer a nuestro docente encargado del curso que
con sus consejos y enseanzas nos orientaron a alcanzar una ms de nuestras
metas no olvidando a nuestros familiares, amigos, compaeros y personas que
nos apoyan de una u otra manera para culminar con xito una etapa ms de
nuestras vida.

INTELIGENCIA ARTIFICIAL 4

REDES NEURONALES

CONTENIDO

DEDICATORIA................................................................................................ 3
AGRADECIMIENTO......................................................................................... 4
INTRODUCCIN.......................................................................................... 7
REDES NEURONALES...................................................................................8
1.

Historia...................................................................................................... 8

2.

Definicin................................................................................................. 12

3.

Elementos bsicos que componen una red neuronal..........................................13


Capa de entrada:.......................................................................................... 13

4.

3.1

Capas ocultas:..................................................................................... 13

3.2

Capa de salida:.................................................................................... 13

Funcionamiento de una red neuronal.............................................................13


4.1

Funcin de entrada (input function)........................................................13

4.1.1

Sumatoria de las entradas pesadas:...................................................14

4.1.2

Producto de las entradas pesadas:....................................................14

4.1.3

Mximo de las entradas pesadas:......................................................14

4.2

Funcin de activacin (activation function)...............................................15

4.2.1

Funcin lineal:..............................................................................15

4.2.2

Funcin sigmoidea:........................................................................16

4.2.3

Funcin tangente hiperblica:..........................................................16

4.3

Funcin de salida (output function).........................................................17

4.3.1

Ninguna:..................................................................................... 17

4.3.2

Binaria:....................................................................................... 17

5.

Entrenamiento de las redes neuronales...........................................................17

6.

Caractersticas de las redes neuronales...........................................................19

7.

Ventajas de las redes neuronales....................................................................20

8.

Tipos de aprendizaje bsicos........................................................................21


8.1

Aprendizaje supervisado:......................................................................21

8.2

Aprendizaje de refuerzo:.......................................................................21

8.3

Aprendizaje de refuerzo:.......................................................................21

INTELIGENCIA ARTIFICIAL 5

REDES NEURONALES
9.

Principales Topologas.................................................................................22
1.1.

Red Monocapa:................................................................................... 22

1.2.

Red Monocapa:................................................................................... 22

1.3.

Red recurrente:................................................................................... 22

10.

Las primeras redes neuronales artificiales....................................................23

10.1.

Perceptrn...................................................................................... 23

10.2.

Perceptrn Multicapa........................................................................24

10.3.

Backprogation.................................................................................26

11.

Software de redes neuronales....................................................................27

11.1.

Neural Stock.................................................................................... 27

11.2.

Optimach........................................................................................ 28

11.3.

Clementine...................................................................................... 28

12.

Aplicaciones de redes neuronales...............................................................28

12.1.

Empresa......................................................................................... 28

12.2.

Finanzas......................................................................................... 28

12.3.

Medio Ambiente...............................................................................29

12.4.

Medicina......................................................................................... 29

12.5.

Militares......................................................................................... 29

12.6.

Manufacturacin..............................................................................29

CONCLUSIN............................................................................................ 30

INTELIGENCIA ARTIFICIAL 6

REDES NEURONALES

INTRODUCCIN
El cerebro humano es el sistema de clculo ms complejo que conoce el hombre. El
ordenador y el hombre realizan bien diferentes clases de tareas; as la operacin de
reconocer el rostro de una persona resulta una tarea relativamente sencilla para el
hombre y difcil para el ordenador, mientras que la contabilidad de una empresa es tarea
costosa para un experto contable y una sencilla rutina para un ordenador bsico.
La capacidad del cerebro humano de pensar, recordar y resolver problemas ha inspirado
a muchos cientficos intentar o procurar modelar en el ordenador el funcionamiento del
cerebro humano.
Los profesionales de diferentes campos como la ingeniera, filosofa, fisiologa y
psicologa han unido sus esfuerzos debido al potencial que ofrece esta tecnologa y
estn encontrando diferentes aplicaciones en sus respectivas profesiones.
Un grupo de investigadores ha perseguido la creacin de un modelo en el ordenador que
iguale o adopte las distintas funciones bsicas del cerebro. El resultado ha sido una
nueva tecnologa llamada Redes Neuronal o tambin Redes Neuronales Artificiales.
El resurgimiento del inters en esta nueva forma de realizar los clculos tras dos
dcadas de olvido se debe al extraordinario avance y xito tanto en el aspecto terico
como de aplicacin que se est obteniendo estos ltimos aos.

INTELIGENCIA ARTIFICIAL 7

REDES NEURONALES

REDES NEURONALES
1. Historia.
En 1943, el neurobilogo Warren McCulloch, y el estadstico Walter Pitss,
publicaron el artculo "A logical calculus of Ideas Imminent in Nervous
Activity". Este artculo constituy la base y el inicio del desarrollo en diferentes
campos como son los Ordenadores Digitales (John Von Neuman), la Inteligencia
Artificial (Marvin Minsky con los Sistemas Expertos) y el funcionamieto del ojo
(Frank Rosenblatt con la famosa red llamada Perceptrn).
En 1956, los pioneros de la Inteligencia Artificial, Minsky, McCarthy, Rochester,
Shanon, organizaron la primera conferencia de Inteligencia Artificial
que fue patrocinada por la Fundacin Rochester. Esta conferencia se celebr en
el verano de 1956 en la localidad inglesa de Darmouth y en muchos libros se
hace referencia al verano de este ao como la primera toma de contacto seria con
las redes neuronales artificiales.
Nathaural Rochester del equipo de investigacin de IBM present el modelo de
una red neuronal que l mismo realiz y puede considerarse como el primer
software de simulacin de redes neuronales artificiales.
En 1957, Frank Rosenblatt public el mayor trabajo de investigacin en
computacin neuronal realizado hasta esas fechas. Su trabajo consista en
el desarrollo de un elemento llamado "Perceptrn".
El perceptrn es un sistema clasificador de patrones que puede identificar
patrones geomtricos y abstractos. El primer perceptrn era capaz de aprender
algo y era robusto, de forma que su comportamiento variaba slo si resultaban
daados los componentes del sistema. Adems presentaba la caracterstica de ser
flexible y comportarse correctamente despus de que algunas celdas fueran
destruidas.
El perceptrn fue originalmente diseado para el reconocimiento ptico de
patrones. Una rejilla de 400 fotoclulas, correspondientes a las neuronas de la
retina sensibles a la luz, recibe el estmulo ptico. Estas fotoclulas estn
conectadas a elementos asociativos que recogen los impulsos elctricos
emitidos desde las fotoclulas. Las conexiones entre los elementos asociativos y
las fotoclulas se realizan de forma aleatoria.
INTELIGENCIA ARTIFICIAL 8

REDES NEURONALES
Si las clulas presentan un valor de entrada superior a un umbral predeterminado
entonces el elemento asociativo produce una salida. La Figura (1.1)
presenta la estructura de la red perceptrn.

Figura (1.1) - Aplicacin de la Red Perceptrn.

El perceptrn presenta algunas limitaciones debido a que se trataba de un


dispositivo en desarrollo. La mayor limitacin la reflejaron Minsky y Papert
aos ms tarde, y ponan de manifiesto la incapacidad del perceptrn en resolver
algunas tareas o problemas sencillos como por ejemplo la funcin lgica OR
exclusivo.
Uno de los mayores cambios realizados en el perceptrn de Rossenblatt a lo
largo de la dcada de los 60 ha sido el desarrollo de sistemas multicapa que
pueden aprender y categorizar datos complejos.
En 1959, Bernard Widrow en Stanford desarroll un elemento adaptativo lineal
llamado "Adaline" (Adaptive Linear Neuron). La Adaline y una versin de dos
capas, llamada "Madaline", fueron utilizadas en distintas aplicaciones como
reconocimiento de voz y caracteres, prediccin del tiempo, control adaptativo y
sobre todo en el desarrollo de filtros adaptativos que eliminen los ecos de las
lneas telefnicas.
A mediados de los aos 60, Minsky y Papert pertenecientes al Laboratorio de
Investigacin de Electrnica del MIT (Massachussets Institute Technology)
comenzaron un trabajo profundo de crtica al perceptrn. El resultado de este
trabajo, el libro Perceptrns, era un anlisis matemtico del concepto del
perceptrn. La conclusin de este trabajo, que se transmiti a la comunidad
cientfica del mundo entero, es que el Perceptrn y la Computacin Neuronal no
eran temas interesantes que estudiar y desarrollar. A partir de este momento
descendieron drsticamente las inversiones en la investigacin de la
computacin neuronal.

INTELIGENCIA ARTIFICIAL 9

REDES NEURONALES
Uno de los pocos investigadores que continuaron con su trabajo en la
computacin neuronal tras la publicacin del libro Perceptrns fue James
Anderson. Su trabajo se bas en el desarrollo de un modelo lineal que consiste
en un modelo asociativo distribuido basado en el principio de Hebb (las
conexiones son reforzadas cada vez que son activadas las neuronas). Una
versin extendida de este modelo lineal es el llamado modelo Brain-State-in- a
Box (BSB).
Teuvo Kohonen, de la Universidad de Helsinki, es uno de los mayores
impulsores de la computacin neuronal de la dcada de los 70. De su trabajo de
investigacin destacan dos aportaciones: la primera es la descripcin y anlisis
de una clase grande de reglas adaptativas, reglas en las que las conexiones
ponderadas se modifican de una forma dependiente de los valores anteriores y
posteriores de las sinapsis. Y la segunda aportacin es el principio de aprendizaje
competitivo en el que los elementos compiten por responder a un estmulo de
entrada, y el ganador se adapta l mismo para responder con mayor efecto al
estmulo.
Otro investigador que continu con su trabajo de investigacin en el mundo de la
computacin neuronal a pesar del mal presagio que indicaron Minsky y Papert
fue Stephen Grossberg. Grossberg estaba especialmente interesado en la
utilizacin de datos de la neurologa para construir modelos de computacin
neuronal. La mayora de sus reglas y postulados derivaron de estudios
fisiolgicos. Su trabajo ha constituido un gran impulso en la investigacin del
diseo y construccin de modelos neuronales. Una de estas clases de redes es la
Adaptive Resonance Theory (ART).

En 1982 John Hopfield con la publicacin del artculo Hopfield Model o


Crossbar Associative Network, junto con la invencin del algoritmo
Backpropagation se consigui devolver el inters y la confianza en el fascinante
campo de la computacin neuronal tras dos dcadas de casi absoluta inactividad
y desinters.
Hopfield presenta un sistema de computacin neuronal consistente en elementos
procesadores interconectados que buscan y tienden a un mnimo de energa. Esta
red con este tipo de funcin de energa y mecanismo de respuesta no es ms que
un caso de la clase genrica de redes que consider Grossberg.

INTELIGENCIA ARTIFICIAL 10

REDES NEURONALES

Investigacin de hoy en da.Existen muchos grupos con sede en diferentes universidades de todo el mundo
que estn realizando trabajos de investigacin en el rea de las redes neuronales
artificiales. Cada grupo tiene diferente nfasis y motivacin con los neurlogos,
psiclogos del conocimiento, fsicos, programadores y matemticos. Todos
ellos ofrecen nuevos puntos de vista e intuiciones en esta rea de la tcnica.
Grossberg continua trabajando en compaa de Carpenter en la Universidad de
Boston, mientras Teuvo Kohonen est en la Universidad de Helsinki. Uno de los
mayores grupos de investigacin de los ltimos aos ha sido el grupo PDP
(Parallel Distributed Processing) formado por Rumelhart, McClelland y Hinton.
Rumelhart de la Universidad de Stanford es uno de los principales impulsores de
la red ms utilizada en la mayora de las aplicaciones actuales, la famosa red
neuronal Backpropagation. En la Universidad de Carnegie-Mellon, el grupo de
investigacin a la cabeza con McClelland destaca por el estudio de las posibles
aplicaciones de la Backpropagation. Y en la Universidad de Toronto, Hinton y
Sejnowski han desarrollado una mquina llamada Boltzman que consiste en la
red de Hopfield con dos modificaciones significativas.
Bart Kosko ha diseado una red llamada BAM (Bidirectional Associate
Memory) basado en la red de Grossberg. Por ltimo indicar la existencia de
grandes grupos de investigacin como los de California Institute of Technology,
Massachussets Institute of Technology, University of California Berkeley y
University of California San Diego.
Conviene no olvidar el esfuerzo econmico y tcnico que estn realizando las
empresas privadas tanto en USA como en Japn y en la Comunidad Econmica
Europea. Como botn de muestra de las inversiones en estos pases baste
conocer que slo en USA se gasta ms de 100 millones de dlares al ao.

INTELIGENCIA ARTIFICIAL 11

REDES NEURONALES

2. Definicin.
Las redes de neuronas artificiales (denominadas habitualmente como RNA o en
ingls como: "ANN) son un paradigma de aprendizaje y procesamiento automtico
inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de
un sistema de interconexin de neuronas en una red que colabora para producir un
estmulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes
de neuronas o redes neuronales.
Las RNA estn compuestas de un gran nmero elementos de procesamiento
altamente interconectados (Neuronas) trabajando al mismo tiempo para la solucin
de problemas especficos. Las RNA, tal como las personas, aprenden de la
experiencia.
Las RNA estn compuestas de muchos elementos sencillos que operan en paralelo, el
diseo de la red est determinado mayormente por las conexiones entre sus
elementos. Al igual que las conexiones de las neuronas cerebrales.
Las RNA han sido entrenadas para la realizacin de funciones complejas en variados
campos de aplicacin. Hoy en da pueden ser entrenadas para la solucin de
problemas que son difciles para sistemas computacionales comunes o para el ser
humano.
La idea de las redes neuronales fue concebida originalmente como un intento de
modelar la biofisiologa del cerebro humano, esto es, entender y explicar cmo
funciona y opera el cerebro. La meta era crear un modelo capaz en emular el proceso
humano de razonamiento. La mayor parte de los trabajos iniciales en redes
neuronales fue realizada por fisilogos y no por ingenieros.

INTELIGENCIA ARTIFICIAL 12

REDES NEURONALES

3. Elementos bsicos que componen una red neuronal.

3.1

Capa de entrada:
Constituida por aquellas neuronas que introducen los patrones de entrada en la
red. En estas neuronas no se produce procesamiento. Es la capa que recibe
directamente la informacin proveniente de las fuentes externas de la red.

3.2

Capas ocultas:
Formada por aquellas neuronas curas entradas provienen de capas anteriores y
salidas pasan a neuronas de capas posteriores. Son internas a la red y no tienen
contacto directo con el entorno exterior. El nmero de niveles ocultos puede
estar entre cero y un nmero elevado.

3.3

Capa de salida:
Transfieren informacin de la red hacia el exterior. Neuronas cuyos valores de
salida se corresponden con las salidas de toda la red.

4. Funcionamiento de una red neuronal.


4.1

Funcin de entrada (input function).


La neurona trata a muchos valores de entrada como si fueran uno solo; esto
recibe el nombre de entrada global. Algunas de estas funciones ms
comnmente utilizadas y conocidas son:

INTELIGENCIA ARTIFICIAL 13

REDES NEURONALES

4.1.1

Sumatoria de las entradas pesadas:


Es la suma de todos los valores de entrada a la neurona, multiplicados
por sus correspondientes pesos.

4.1.2

Producto de las entradas pesadas:


Es el producto de todos los valores de entrada a la neurona,
multiplicados por sus correspondientes pesos.

4.1.3

Mximo de las entradas pesadas:


Solamente toma en consideracin el valor de entrada ms fuerte,
previamente multiplicado por su peso correspondiente.

INTELIGENCIA ARTIFICIAL 14

REDES NEURONALES
4.2

Funcin de activacin (activation function).


La funcin de activacin calcula el estado de actividad de una neurona;
transformando la entrada global (menos el umbral, i) en un valor (estado) de
activacin, cuyo rango normalmente va de (0 a 1) o de (-1 a 1).
La funcin de activacin ms comnmente utilizadas se detalla a continuacin:

4.2.1

Funcin lineal:
Los valores de salida obtenidos por medio de esta funcin de activacin
sern:

Cuando el argumento de
est comprendido
dentro del rango (-1/a, 1/a). Por encima o por debajo de esta zona se fija
la salida en 1 o -1, respectivamente. Cuando a = 1 (siendo que la misma
afecta la pendiente de la grfica), la salida es igual a la entrada.

INTELIGENCIA ARTIFICIAL 15

REDES NEURONALES

4.2.2

Funcin sigmoidea:
Los valores de salida que proporcionan esta funcin estn
comprendidos dentro de un rango que va de 0 a 1. Al modificar el valor
de g se ve afectada la pendiente de la funcin de activacin.

4.2.3

Funcin tangente hiperblica:


Los valores de salida de la funcin tangente hiperblica estn
comprendidos dentro de un rango que va de -1 a 1. Al modificar el valor
de g se ve afectada la pendiente de la funcin de activacin.

INTELIGENCIA ARTIFICIAL 16

REDES NEURONALES
4.3

Funcin de salida (output function).


El ltimo componente que una neurona necesita es la funcin de salida. El valor
resultante de esta funcin es la salida de la neurona i (out i); por ende, la funcin
de salida determina qu valor se transfiere a las neuronas vinculadas.
Dos de las funciones de salida ms comunes son:
4.3.1

Ninguna:
Este es el tipo de funcin ms sencillo, tal que la salida es la misma que la
entrada. Es tambin llamada funcin identidad.

4.3.2

Binaria:

5. Entrenamiento de las redes neuronales.


Una de las principales caractersticas de las ANN es su capacidad de aprendizaje. El
entrenamiento de las ANN muestra algunos paralelismos con el desarrollo intelectual
de los seres humanos. No obstante aun cuando parece que se ha conseguido entender
el proceso de aprendizaje conviene ser moderado porque el aprendizaje de las ANN
est limitado.
El objetivo del entrenamiento de una ANN es conseguir que una aplicacin
determinada, para un conjunto de entradas produzca el conjunto de salidas deseadas
o mnimamente consistentes. El proceso de entrenamiento consiste en la aplicacin
secuencial de diferentes conjuntos o vectores de entrada para que se ajusten los pesos
de las interconexiones segn un procedimiento predeterminado. Durante la sesin de
entrenamiento los pesos convergen gradualmente hacia los valores que hacen que
cada entrada produzca el vector de salida deseado.

INTELIGENCIA ARTIFICIAL 17

REDES NEURONALES
Los algoritmos de entrenamiento o los procedimientos de ajuste de los valores de las
conexiones de las ANN se pueden clasificar en dos grupos: Supervisado y No
Supervisado.
a) Entrenamiento Supervisado:
Estos algoritmos requieren el emparejamiento de cada vector de entrada
con su correspondiente vector de salida. El entrenamiento consiste en
presentar un vector de entrada a la red, calcular la salida de la red,
compararla con la salida deseada, y el error o diferencia resultante se utiliza
para realimentar la red y cambiar los pesos de acuerdo con un
algoritmo que tiende a minimizar el error. Las parejas de vectores del
conjunto de entrenamiento se aplican secuencialmente y de forma cclica. Se
calcula el error y el ajuste de los pesos por cada pareja hasta que el error para
el conjunto de entrenamiento entero sea un valor pequeo y aceptable.
b) Entrenamiento No Supervisado:
Los sistemas neuronales con entrenamiento supervisado han tenido xito en
muchas aplicaciones y sin embargo tienen muchas crticas debido a que desde
el punto de vista biolgico no son muy lgicos. Resulta difcil creer que
existe un mecanismo en el cerebro que compare las salidas deseadas con las
salidas reales. En el caso de que exista, de dnde provienen las
salidas deseadas?
Los sistemas no supervisados son modelos de aprendizaje ms lgicos en los
sistemas biolgicos. Desarrollados por Kohonen (1984) y otros
investigadores, estos sistemas de aprendizaje no supervisado no requieren de
un vector de salidas deseadas y por tanto no se realizan comparaciones entre
las salidas reales y salidas esperadas. El conjunto de vectores de
entrenamiento consiste nicamente en vectores de entrada. El algoritmo de
entrenamiento modifica los pesos de la red de forma que produzca vectores
de salida consistentes. El proceso de entrenamiento extrae las
propiedades estadsticas del conjunto de vectores de entrenamiento y
agrupa en clases los vectores similares.

Existe una gran variedad de algoritmos de entrenamiento hoy en da. La gran


mayora de ellos han surgido de la evolucin del modelo de aprendizaje no
supervisado que propuso Hebb (1949). El modelo propuesto por Hebb se caracteriza
por incrementar el valor del peso de la conexin si las dos neuronas unidas son
activadas o disparadas. La ley de Hebb se representa segn la ecuacin (2.2).
wij (n + 1) = wij (n) + OUTi OUTj . ecuacin (1.1)
INTELIGENCIA ARTIFICIAL 18

REDES NEURONALES

6. Caractersticas de las redes neuronales.


Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) estn
inspiradas en las redes neuronales biolgicas del cerebro humano. Estn
constituidas por elementos que se comportan de forma similar a la neurona biolgica
en sus funciones ms comunes. Estos elementos estn organizados de una forma
parecida a la que presenta el cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de caractersticas
propias del cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de
ejemplos previos a ejemplos nuevos y abstraen las caractersticas principales de una
serie de datos.

a) Aprender: adquirir el conocimiento de una cosa por medio del estudio,


ejercicio o experiencia. Las ANN pueden cambiar su comportamiento en
funcin del entorno. Se les muestra un conjunto de entradas y ellas mismas se
ajustan para producir unas salidas consistentes.
b) Generalizar: extender o ampliar una cosa. Las ANN generalizan
automticamente debido a su propia estructura y naturaleza. Estas redes
pueden ofrecer, dentro de un margen, respuestas correctas a entradas que
presentan pequeas variaciones debido a los efectos de ruido o distorsin.
c) Abstraer: aislar mentalmente o considerar por separado las cualidades de un
objeto. Algunas ANN son capaces de abstraer la esencia de un conjunto de
entradas que aparentemente no presentan aspectos comunes o relativos.

INTELIGENCIA ARTIFICIAL 19

REDES NEURONALES

7. Ventajas de las redes neuronales.


Las redes neuronales artificiales (RNA) tienen muchas ventajas debido a que
est basado en la estructura del sistema nervioso, principalmente el cerebro.
Aprendizaje: Las RNA tienen la habilidad de aprender mediante una
etapa que se llama etapa de aprendizaje. Esta consiste en proporcionar a
la RNA datos como entrada a su vez que se le indica cul es la salida
(respuesta) esperada.
Auto organizacin: Una RNA crea su propia representacin de la
informacin en su interior, descargando al usuario de esto.
Tolerancia a fallos: Debido a que una RNA almacena la informacin de
forma redundante, sta puede seguir respondiendo de manera aceptable
aun si se daa parcialmente.
Flexibilidad: Una RNA puede manejar cambios no importantes en la
informacin de entrada, como seales con ruido u otros cambios en la
entrada (por ejemplo si la informacin de entrada es la imagen de un
objeto, la respuesta correspondiente no sufre cambios si la imagen
cambia un poco su brillo o el objeto cambia ligeramente).
Tiempo real: La estructura de una RNA es paralela, por lo cual si esto es
implementado con computadoras o en dispositivos electrnicos
especiales, se pueden obtener respuestas en tiempo real.
Fcil insercin dentro de la tecnologa existente: Se pueden obtener
chips especializados para redes que mejoran su capacidad en ciertas
tareas. Ello facilitar la integracin modular en los sistemas existentes.

INTELIGENCIA ARTIFICIAL 20

REDES NEURONALES

8. Tipos de aprendizaje bsicos.


Existen tres tipos de aprendizaje: supervisado, de refuerzo y no
supervisado.

4.1

Aprendizaje supervisado:
Se introduce unos valores de entrada a la red, y los valores de salida generados
por esta se comparan con los valores de salida correctos. Si hay diferencias, se
ajusta la red en consecuencia. Ocurre cuando se le proporciona a la red tanto la
entrada como la salida correcta, y la red ajusta sus pesos tratando de minimizar
el error de su salida calculada. Este tipo de entrenamiento se aplica por
ejemplo, en el reconocimiento de patrones.

4.2

Aprendizaje de refuerzo:
Se introducen valores de entrada, y lo nico que se le indica a la red si las
salidas que ha generado son correctas o incorrectas.

4.3

Aprendizaje de refuerzo:
No existe ningn tipo de gua. De esta manera lo nico que puede hacer la red
es reconocer patrones en los datos de entrada y crear categoras a partir de estos
patrones. As cuando se le entre algn dato, despus del entrenamiento, la red
ser capaz de clasificarlo e indicar en que categora lo ha clasificado.
Se presenta cuando a la red se le proporcionan nicamente los estmulos, y la
red ajusta sus interconexiones basndose nicamente es sus estmulos y la
salida de la propia red.

Las leyes de aprendizaje determinan como la red ajustar sus pesos utilizando una
funcin de error o algn otro criterio. La ley de aprendizaje adecuada se determina
en base a la naturaleza del problema que se intenta resolver.

INTELIGENCIA ARTIFICIAL 21

REDES NEURONALES

9. Principales Topologas.
Una primera clasificacin de las redes de neuronas artificiales que se suele hacer es en
funcin del patrn de conexiones que presenta. As se definen tres tipos bsicos de
redes:
Dos tipos de redes de propagacin hacia delante o a cclicas en las que todas las
seales van desde la capa de entrada hacia la salida sin existir ciclos, ni
conexiones entre neuronas de la misma capa.

1.1. Red Monocapa:


Se corresponde con la red neuronal ms sencilla ya que se tiene capa de
neuronas que proyectan las entradas a una capa de neuronas de salida donde se
realizan los diferentes clculos. Ejemplos: perceptrn, Adaline.

1.2. Red Monocapa:


Es una generalizacin de la anterior, existiendo un conjunto de capas intermedias
entre la capa de entrada y salida (capas ocultas). Este tipo de red puede estar
total o parcialmente conectada. Ejemplos: perceptrn multicapa.

1.3. Red recurrente:


Este tipo de red se diferencia de las anteriores en la existencia de los lazos de
realimentacin en la red. Estos lazos pueden ser entre neuronas de diferentes
capas, neuronas de la misma capa o, entre una misma neurona .Presentan al
menos un ciclo cerrado de activacin neuronal. Ejemplos: Elman, Hopfield,
mquina de Boltzmann.

INTELIGENCIA ARTIFICIAL 22

REDES NEURONALES

10.

Las primeras redes neuronales artificiales.


10.1. Perceptrn
Fue el primer modelo de Red Neuronal Artificial supervisada. Es la ms
simple de las Redes neuronales.
Fue creada por Rosenblatt en 1958 y su xito incial se debi a que era
capaz de aprender y reconocer patrones sencillos. Con el desarrollo del
perceptrn, surge el rea de las Redes Neuronales Artificiales dentro de la
Inteligencia Artificial. Sin embargo, Marvin Minsky y Seymur
Papert escriben el libro "Perceptrons", en el que se hace un anlisis del
Perceptrn mostrando sus flaquezas y decae el apoyo dado a la
investigacin de las Redes Neuorales Artificiales durante algunas dcadas.
Las principales limitaciones del perceptrn son que sirve nicamente para
problemas linealmente separables y que sean de dos clases. Hablando
vulgarmente, esto quiere decir que el perceptrn slo lo podemos usar
cuando el problema sea distinguir entre una de dos posibles clases y, que
trazando una lnea, plano o hiperplano en un plano o hiperplano, se puedan
separar perfectamente estas dos clases.
Por ejemplo, supongamos que tenemos un problema de dos dimensiones (o
sea, dos caractersticas) y con dos diferentes grupos que pertenecen a la
clase A y a la clase B.
Si lo graficramos, a simple vista podramos determinar si el problema es
linealmente separable si es que podemos trazar una lnea que divida a los
dos grupos. En la siguiente imagen se ilustra este concepto:

INTELIGENCIA ARTIFICIAL 23

REDES NEURONALES
Resumiendo, se puede decir que el perceptrn fue diseado para tratar con
clases linealmente separables utilizando una funcin discriminante lineal
para crear una frontera de decisin.
Por otra parte, el Perceptrn es la nica red neuronal que tiene un teorema
de convergencia el cual establece que, si el problema es linealmente
separable, el perceptrn encontrar la solucin. Aunque no se sabe cunto
tiempo le llevara encontrar la solucin y mucho menos si la solucin
encontrada ser la ptima, se sabe que se tendr una solucin.

En la siguiente figura se representa una neurona "artificial", que intenta


modelar el comportamiento de la neurona biolgica. Aqu el cuerpo de la
neurona se representa como un sumador lineal de los estmulos externos zj,
seguida de una funcin no lineal yj = f(zj). La funcin f(zj) es llamada la
funcin de activacin, y es la funcin que utiliza la suma de estmulos para
determinar la actividad de salida de la neurona.

10.2. Perceptrn Multicapa


Es una (RNA) formada por mltiples capas, esto le permite resolver
problemas que no son linealmente separables, lo cual es la principal
limitacin del perceptrn simple.

INTELIGENCIA ARTIFICIAL 24

REDES NEURONALES

Un Perceptrn con tres niveles de neuronas puede formar cualquier regin


convexa en este espacio. Las regiones convexas se forman mediante la
inteleccin entre las regiones formadas por cada neurona de la segunda
capa, cada uno de estos elementos se comporta como un Perceptrn
simple, activndose su salida para los patrones de un lado del hiperplano.

Un Perceptrn con cuatro capas puede generar regiones de decisin


arbitrariamente complejas. El proceso de separacin en clases que se lleva
a cabo consiste en la particin de la regin deseada en pequeos
hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa
(siendo n el nmero de entradas a la red), una por cada lado del hipercubo,
y otra en la tercera capa, que lleva a cabo el and lgico de la salida de los
nodos del nivel anterior. La salida de los nodos de este tercer nivel se
activaran solo para las entradas de cada hipercubo. Los hipercubos se
asignan a la regin de decisin adecuada mediante la conexin de la salida
de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa)
correspondiente a la regin de decisin en la que este comprendido el
hipercubo llevndose a cabo una operacin lgica Or en cada nodo de
salida. Este procedimiento se pude generalizar de manera que la forma de
las regiones convexas sea arbitraria, en lugar de hipercubos.
En teora, el Perceptrn de 4 capas puede resuelve una gran variedad de
problemas cuyas entradas sean analgicas, la salida sea digital y sea
linealmente separable. El problema prctico radica en el nmero de
neuronas, en el numero idneo de capas ocultas, la extensin de la funcin
de activacin, el tiempo de entrenamiento de la red, las implicaciones en la

INTELIGENCIA ARTIFICIAL 25

REDES NEURONALES
generacin de ruido (al tener un nmero excesivo de neuronas) en
contraparte con la ventaja de tener un sistema tolerante a fallas al tener un
numero de neuronas redundante.

10.3. Backprogation
Durante muchos aos no se obtuvo ningn tipo de xito en el diseo de
algoritmos de entrenamiento de redes multicapa. A partir de la
comprobacin de la severa limitacin de los sistemas de una capa, el
mundo de la computacin neuronal entr en un obscurecimiento y
abandono casi general durante dos dcadas.
La invencin del algoritmo Backpropagation ha desempeado un papel
vital en el resurgimiento del inters de las redes neuronales artificiales.
Backpropagation es un mtodo de entrenamiento de redes multicapa. Su
potencia reside en su capacidad de entrenar capas ocultas y de este modo
supera las posibilidades restringidas de las redes de una nica capa.
La demostracin de las limitaciones de las redes neuronales de una sola
capa es un factor significativo de la decadencia del inters de las redes
neuronales en la poca de los 70s .El descubrimiento (por varios
cientficos independientes) y la difusin extendida de un mtodo general
efectivo para el entrenamiento de una red neuronal multicapa, juega un
mayor rol en el surgimiento de las redes neuronales como una herramienta
para solucionar una amplia variedad de problemas.
El concepto bsico de Backpropagation fue presentado en 1974 por Paul
Werbos e independientemente reinventado por David Parker en 1982, y
tambin presentado en 1986 por Rumelhart, Hinton y Willians. La
duplicidad de esfuerzos y trabajos es frecuente en cualquier disciplina, y
ms en el mundo de las ANN debido a su naturaleza interdisciplinaria.

INTELIGENCIA ARTIFICIAL 26

REDES NEURONALES

En esta red, se interconectan varias unidades de procesamiento en capas,


las neuronas de cada capa no se interconectan entre s. Sin embargo, cada
neurona de una capa proporciona una entrada a cada una de las neuronas
de la siguiente capa, esto es, cada neurona transmitir su seal de salida a
cada neurona de la capa siguiente. La figura muestra un ejemplo
esquemtico de la arquitectura de este tipo de redes neuronales.

11.

Software de redes neuronales.


11.1.

Neural Stock

Desarrollado por Infosel Financiero en Mxico.


Combina Redes Neuronales Artificiales, junto con tecnologas como
Algoritmos Genticos, para obtener una capacidad de anlisis acertada,
recomendando operaciones de compra y venta en el mundo financiero y
burstil.
Permite analizar el desarrollo del mercado financiero, da tras da.
Obtiene los datos de la bolsa en tiempo real.
Es robusto y tiene un interfaz amigable. No se emociona y se adapta, es
sensible.

11.2.

Optimach

Administrador de publicidad dirigida para internet, analiza y decide los


INTELIGENCIA ARTIFICIAL 27

REDES NEURONALES
banners o anuncios que presentar un sitio de internet a cada tipo de usuario,
para aumentar el inters en el patrocinador.

11.3.

Clementine

Software de minera de datos especializado en la toma de decisiones y


prediccin en entornos empresariales. Utiliza tcnicas de redes neuronales e
induccin para aprender de salidas previas a la hora de realizar predicciones
de forma que el conocimiento d la toma de decisiones, esta se automatiza.

12.

Aplicaciones de redes neuronales.


Se desarrolla en los diferentes mbitos como:

12.1.

Empresa
Evaluacin de probabilidad de formaciones geolgicas y
petrolferas.
Identificacin de candidatos para posiciones especficas.
Explotacin de bases de datos.
Optimizacin de plazas y horarios en lneas de vuelo.
Optimizacin del flujo del trnsito controlando convenientemente
la temporizacin de los semforos.
Reconocimiento de caracteres escritos.
Modelado de sistemas para automatizacin y control.

12.2.

Finanzas

Previsin de la evolucin de los precios.


Valoracin del riesgo de los crditos.
Identificacin de falsificaciones.
Interpretacin de firmas.

INTELIGENCIA ARTIFICIAL 28

REDES NEURONALES
12.3.

Medio Ambiente
Analizar tendencias y patrones.
Previsin del tiempo.

12.4.

Medicina
Analizadores del habla para ayudar en la audicin de sordos
profundos.
Diagnstico y tratamiento a partir de sntomas y/o de datos
analticos
(electrocardiograma,
encefalogramas,
anlisis
sanguneo, etc.).
Monitorizacin en cirugas.
Prediccin de reacciones adversas en los medicamentos.
Entendimiento de la causa de los ataques cardacos.

12.5.

Militares

12.6.

Clasificacin de las seales de radar.


Creacin de armas inteligentes.
Optimizacin del uso de recursos escasos.
Reconocimiento y seguimiento en el tiro al blanco.

Manufacturacin
Control de produccin en lneas de procesos.
Inspeccin de la calidad.

INTELIGENCIA ARTIFICIAL 29

REDES NEURONALES

CONCLUSIN

Las RNA han sido aplicadas a un nmero en aumento de problemas en la vida real y de
considerable complejidad, donde su mayor ventaja es en la solucin de problemas que
son bastante complejos para la tecnologa actual, tratndose de problemas que no tienen
una solucin algortmica o cuya solucin algortmica es demasiado compleja para ser
encontrada.

En general, debido a que son parecidas a las del cerebro humano, las RNA son bien
nombradas ya que son buenas para resolver problemas que el humano puede resolver
pero las computadoras no. Estos problemas incluyen el reconocimiento de patrones y la
prediccin del tiempo. De cualquier forma, el humano tiene capacidad para el
reconocimiento de patrones, pero la capacidad de las redes neuronales no se ve afectada
por la fatiga, condiciones de trabajo, estado emocional, y compensaciones.

22.

INTELIGENCIA ARTIFICIAL 30

Das könnte Ihnen auch gefallen