Sie sind auf Seite 1von 13

Universidad Nacional del Santa Inteligencia Artificial

UNIVERSIDAD NACIONAL DEL SANTA

FACULTAD DE INGENIERÍA

ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA DE


SISTEMAS E INFORMÁTICA

ALUMNOS :
VALENCIA AYASTA SHIRLEY

CURSO :

INTELIGENCIA ARTIFICIAL

DOCENTE :

DIANA MUÑOZ CASANOVA

NUEVO CHIMBOTE – PERÚ

JULIO – 2018

Perceptrón Multicapa Página 1


Universidad Nacional del Santa Inteligencia Artificial

ADALINE
Las Redes Neuronales son dispositivos, programados de manera tal que tratan de
representar el cerebro humano, simulando de cierto su proceso de aprendizaje. Dentro de
los tipos de neuronas artificiales tenemos a la Red Adaline.

La Red Adaline tiene una diferencia significativa con relación al Perceptrón ya que esta
emplea una regla de aprendizaje más fuerte que la del perceptrón que es la llamada regla
LMS (Least Mean Square) mínimo cuadrado medio.

El perceptrón se basa en diferenciar de una clase de otra, separa por decirlo así manzana de
peras ,personas altas de bajas por decir un ejemplo , en cambio una red Adaline tiene una
salida lineal y toma valores continuos que pueden ir de valores negativos hasta positivos.

El adaline (de ADAptative LINear Element) es un tipo de red neuronal artificial


desarrollada por el profesor Bernard Widrow y su alumno Ted Hoff en la Universidad de
Stanford en 1960. El modelo está basado en la Neurona de McCulloch-Pitts.

Estructura prácticamente idéntica al perceptron, pero es un mecanismo físico capaz de


realizar aprendizaje

Elemento combinador adaptativo lineal, que recibe todas las entradas, las suma
ponderadamente, y produce una salida

Perceptrón Multicapa Página 2


Universidad Nacional del Santa Inteligencia Artificial

CARACTERISTICAS

Las Redes ADALINE son redes muy similares al Perceptrón con la diferencia de que su
función de activación es lineal en lugar de ser un limitador fuerte como es el caso del
Perceptrón, estas presentan la misma limitación del Perceptrón respecto al tipo de
problemas que pueden resolver, ya que ambas redes solo pueden resolver problemas
linealmente separables.

Son redes de aprendizaje supervisado que usan la regla de Widrow – Hoff para dicho
aprendizaje o también denominada regla Delta. El algoritmo que estas usan es el LMS
(Least Mean Square) siendo este más eficiente que la regla de aprendizaje del Perceptrón
puesto que minimiza el error medio cuadrático.

Adaline está limitada a una única neurona de salida, un vector x como su entrada y un
número real y como su salida.

VENTAJAS
Una de las principales ventajas que presenta la Red Adaline frente al perceptrón es que esta
su gráfica de error es un hiperparaboloide la cual contiene un mínimo global o también
puede tener una recta de infinitos valores.

De esta manera se evita los problemas que proporciona el perceptrón al momento del
entrenamiento ya que su función de error tiene cuantiosos mínimos específicos.

APLICACIONES
La principal aplicación de las redes de tipo Adaline se encuentra en el campo de
procesamiento de señales. Específicamente en el diseño de filtros, estas son capaces de
eliminar ruido en señales portadoras de información.

Otra aplicación que tiene esta red es la de los filtros adaptivos.

Perceptrón Multicapa Página 3


Universidad Nacional del Santa Inteligencia Artificial

Un Adaline tiene la suficiente capacidad de predecir el valor de una señal en el instante (


t+1) si se conoce el valor de la misma en los p instantes anteriores (p es >0 y su valor
depende del problema).

Predecir el valor futuro de una señal a partir de su valor actual.

El error predicción va a variar, es decir la predicción va a ser mayor o menor dependiendo


de la señal que se va a predecir. Si dicha señal corresponde a una serie de temporal el
Adaline, transcurrido un tiempo, estará apta para dar predicciones correctas.

PERCEPTRON VS ADELINE
- En Perceptron la salida es binaria, en Adaline es real.
- En Adaline existe una medida de cuánto se ha equivocado la red, en Perceptron
sólo de si se ha equivocado o no.
- En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar cada
equivocacion a la modicacion de los pesos. Es siempre un valor entre 0 y 1 para
ponderar el aprendizaje

EJEMPLO

Perceptrón Multicapa Página 4


Universidad Nacional del Santa Inteligencia Artificial

Perceptrón Multicapa Página 5


Universidad Nacional del Santa Inteligencia Artificial

Perceptrón Multicapa Página 6


Universidad Nacional del Santa Inteligencia Artificial

CONCLUSIONES
La Red Adaline es un mecanismo físico capaz de realizar aprendizaje es un elemento
Combinador Adaptativo, recibe un conjunto de entradas y las combina para producir una
salida entonces ADALINE es un modelo de aprendizaje.

Las redes Adaline se basan en el objetivo de evaluar de la forma más correcta la salida,
para de esta manera poder minimizar el error medio cuadrático, por tanto son muy similares
al Perceptrón, lo único en lo que cambian es la transferencia en la salida.

Adaline tiene una considerable diferencia con respecto a Perceptron, puesto que en la
modificación de los pesos que se dan en la preparación, la Red Adaline tiene muy presente
el valor de corrección de la salida estimada con relación a la esperada.

Perceptrón Multicapa Página 7


Universidad Nacional del Santa Inteligencia Artificial

PERCEPTRON MULTICAPA
INTRODUCCION
El perceptrón multicapa es una red neuronal artificial formada por múltiples capas, esto le
permite resolver problemas que no son linealmente separables, lo cual es la principal
limitación del perceptrón .

La topología de un perceptrón multicapa está definida por un conjunto de capas ocultas,


una capa de entrada y una de salida. No existen restricciones sobre la función de activación
aunque en general se suelen utilizar funciones sigmoideas.

Dentro del marco de las redes de neuronas, el Perceptrón multicapa es en la actualidad una
de las arquitecturas más utilizadas en la resolución de problemas. Esto es debido,
fundamentalmente, a su capacidad como aproximador universal, así como a su fácil uso y
aplicabilidad. Por otra parte, esto no implica que sea una de las redes más potentes y con
mejores resultados en sus diferentes áreas de aplicación. De hecho, el Perceptrón multicapa
posee una serie de limitaciones, como el largo proceso de aprendizaje para problemas
complejos dependientes de un gran número de variables; la dificultad para realizar un
análisis teórico de la red debido a la presencia de componentes no lineales y a la alta
conectividad.

ARQUITECTURA
La arquitectura de Perceptrón multicapa se caracteriza porque tiene sus neuronas agrupadas
en capas de diferentes niveles. Cada una de las capas está formada por un conjunto de
neuronas y se distinguen tres tipos de capas diferentes: la capa de entrada, las capas ocultas
y la capa de salida.

Perceptrón Multicapa Página 8


Universidad Nacional del Santa Inteligencia Artificial

 Capa de entrada: Las neuronas de la capa de entrada no actúan como neuronas


propiamente dichas, sino que se encargan únicamente de recibir las señales o
patrones del exterior y propagar dichas señales a todas las neuronas de la siguiente
capa.
 Capa de salida: La última capa actúa como salida de la red, proporcionando al
exterior la respuesta de la red para cada uno de los patrones de entrada.
 Capa oculta: Las neuronas de las capas ocultas realizan un procesamiento no lineal
de los patrones recibidos.

Las conexiones del Perceptrón multicapa siempre están dirigidas hacia adelante, es decir,
las neuronas de una capa se conectan con las neuronas de la siguiente capa, de ahí que
reciban también el nombre de redes alimentadas hacia adelante o redes feedforward. Las
conexiones entre las neuronas de la red llevan también asociado un umbral, que el caso del
Perceptrón multicapa suele tratarse como una conexión más a la neurona.

CARACTERISTICAS

 Es una de las arquitecturas más utilizadas para resolver problemas reales.


 Se evalúa un conjunto de datos de entradas y se obtienen valores reales o vectores
con valores reales.
 Se diferencia del Perceptrón simple y ADALINE en que tiene una capa oculta.
 Todas las neuronas se relacionan con todas las neuronas, incluyendo las neuronas de
la capa oculta.

APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA

1. Se inicializan los pesos y umbrales (valores aleatorios próximos a 0).

2. Se presenta un patrón “n” de entrenamiento y se propaga hacia la salida,


obteniendo la salida de la red “y(n)”

3. Se evalúa el error cuadrático, “e(n)”, cometido por la red para cada patrón.

4. Se aplica la Regla Delta Generalizada para modificar pesos y umbrales:

 Se calculan los valores “δ” para todas las neuronas de la capa de


salida.

Perceptrón Multicapa Página 9


Universidad Nacional del Santa Inteligencia Artificial

 Se calcula “δ” para el resto de neuronas, empezando por la última


capa oculta y terminando en la capa de entrada.

 Se modifican los pesos y umbrales.

5. Se repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.

6. Se evalúa el error total de la red.

7. Se repite hasta alcanzar el error mínimo de entrenamiento, realizando “m”


ciclos. Se pueden establecer otros criterios de parada:

 El error del entrenamiento se estabilice.

 El error de validación se estabilice.

APLICACIONES

Perceptrón multicapa utilizando un algoritmo de backpropagation son el algoritmo estándar


para cualquier proceso de reconocimiento de patrones de aprendizaje supervisado y el tema
de investigación en curso en la neurociencia computacional y procesamiento distribuido en
paralelo. Son útiles en la investigación en términos de su capacidad para resolver problemas
de forma estocástica, que a menudo permite a uno para obtener soluciones aproximadas
para problemas muy complejos, como aproximación de la capacidad.

El rango de tareas que el Perceptrón puede manejar es mucho mayor que simples decisiones
y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para formar el tiempo
pasado de los verbos en inglés, leer texto en inglés y manuscrito. El Perceptrón multicapa
(MLP) puede ser usado para la predicción de una serie de datos en el tiempo; tal a sido su
éxito en la medición de la demanda de gas y electricidad, además, de la predicción de
cambios en el valor de los instrumentos financieros. NETtalk, es un Perceptrón que es
capaz de transformar texto en inglés en sonido individual (representaciones fonéticas) y la
pronunciación con la utilización de un sintetizador de voz; cuenta con aproximadamente
300 nodos de neuronas (siendo 80 en la capa oculta) y 20,000 conexiones individuales.

Perceptrón Multicapa Página 10


Universidad Nacional del Santa Inteligencia Artificial

FUNCIÓN DE ACTIVACIÓN

Si un perceptrón multicapa tiene una función lineal en la activación de todas las neuronas,
es decir, una función lineal que mapea las entradas ponderadas a la salida de cada neurona,
entonces es fácilmente demostrado con el álgebra lineal que cualquier número de capas
puede ser reducido a la norma modelo de de dos capas. Lo que hace que un perceptrón
multicapa diferente es que cada neurona utiliza una función de activación no lineal que se
desarrolló para modelar la frecuencia de potenciales de acción, o de cocción, de las
neuronas biológicas en el cerebro. Esta función se modela de varias maneras.

Las dos funciones principales de activación utilizada en las aplicaciones actuales son ambos
sigmoides, y se describen por:

 Funcion sigmoidal

1
𝐹1 (𝑥) =
1 + 𝑒 −𝑥

Perceptrón Multicapa Página 11


Universidad Nacional del Santa Inteligencia Artificial

 Tangente hiperbólica

1 − 𝑒 −𝑥
𝐹2 (𝑥) =
1 + 𝑒 −𝑥

ALGORITMO USADO
Esta red neuronal artificial usa el algoritmo backpropagation, la cual permite que la red
aprenda la asociación existente entre un conjunto de patrones de entrada y sus salidas. Esto
se consigue a partir de una representación interna del conocimiento en las capas ocultas a
fin de aprender la relación y aplicar esta misma a las nuevas entradas. En pocas palabras,
permite generalizar la información.

El algoritmo usado, es el nombrado anteriormente, backpropagation error. Para que la red


pueda aprender y adquiera esa capacidad de generalizar se diferencian dos etapas: de
entrenamiento y de funcionamiento.

La primera etapa de entrenamiento consiste en la presentación de un grupo denominado


grupo de entrenamiento en el cual, cuyo principal objetivo es conseguir la mínima
discrepancia entre el valor de salida obtenido y el valor de salida deseado.

En la segunda etapa, la etapa de funcionamiento, se presenta un nuevo grupo de datos que


no han sido presentados anteriormente, grupo de validación, la señal se transmite hacia las
neuronas ocultas en donde se transforman las señales a partir de la aplicación de una
función de activación y proporcionan un valor de salida que se transmite a la siguiente
capa, en donde, a partir de la misma operación se obtiene una salida de la red. El objetivo
de este grupo es el de controlar el proceso de aprendizaje.

Perceptrón Multicapa Página 12


Universidad Nacional del Santa Inteligencia Artificial

CONCLUSIÓN
El perceptrón multicapa pertenece a la familia de aprendizaje o entrenamiento supervisado
su característica principal es la cantidad de nodos que contiene para obtener entradas de
datos y dar una salida en base al modelo que tiene como función. Es uno de los modelos de
redes neuronales más simples en la inteligencia artificial entonces como tal es la base fuerte
para creación de nuevos modelos. En cuanto respecta a la clase termino como todas no es
una tendencia unos hacen una cosa otros hacen otra realmente según mi experiencia asumo
que aquellos que piensan que pueden hace dos cosas al mismo tiempo están muy
equivocados ya le ponen atención a una sola cosa.

Perceptrón Multicapa Página 13

Das könnte Ihnen auch gefallen