Beruflich Dokumente
Kultur Dokumente
FACULTAD DE INGENIERÍA
ALUMNOS :
VALENCIA AYASTA SHIRLEY
CURSO :
INTELIGENCIA ARTIFICIAL
DOCENTE :
JULIO – 2018
ADALINE
Las Redes Neuronales son dispositivos, programados de manera tal que tratan de
representar el cerebro humano, simulando de cierto su proceso de aprendizaje. Dentro de
los tipos de neuronas artificiales tenemos a la Red Adaline.
La Red Adaline tiene una diferencia significativa con relación al Perceptrón ya que esta
emplea una regla de aprendizaje más fuerte que la del perceptrón que es la llamada regla
LMS (Least Mean Square) mínimo cuadrado medio.
El perceptrón se basa en diferenciar de una clase de otra, separa por decirlo así manzana de
peras ,personas altas de bajas por decir un ejemplo , en cambio una red Adaline tiene una
salida lineal y toma valores continuos que pueden ir de valores negativos hasta positivos.
Elemento combinador adaptativo lineal, que recibe todas las entradas, las suma
ponderadamente, y produce una salida
CARACTERISTICAS
Las Redes ADALINE son redes muy similares al Perceptrón con la diferencia de que su
función de activación es lineal en lugar de ser un limitador fuerte como es el caso del
Perceptrón, estas presentan la misma limitación del Perceptrón respecto al tipo de
problemas que pueden resolver, ya que ambas redes solo pueden resolver problemas
linealmente separables.
Son redes de aprendizaje supervisado que usan la regla de Widrow – Hoff para dicho
aprendizaje o también denominada regla Delta. El algoritmo que estas usan es el LMS
(Least Mean Square) siendo este más eficiente que la regla de aprendizaje del Perceptrón
puesto que minimiza el error medio cuadrático.
Adaline está limitada a una única neurona de salida, un vector x como su entrada y un
número real y como su salida.
VENTAJAS
Una de las principales ventajas que presenta la Red Adaline frente al perceptrón es que esta
su gráfica de error es un hiperparaboloide la cual contiene un mínimo global o también
puede tener una recta de infinitos valores.
De esta manera se evita los problemas que proporciona el perceptrón al momento del
entrenamiento ya que su función de error tiene cuantiosos mínimos específicos.
APLICACIONES
La principal aplicación de las redes de tipo Adaline se encuentra en el campo de
procesamiento de señales. Específicamente en el diseño de filtros, estas son capaces de
eliminar ruido en señales portadoras de información.
PERCEPTRON VS ADELINE
- En Perceptron la salida es binaria, en Adaline es real.
- En Adaline existe una medida de cuánto se ha equivocado la red, en Perceptron
sólo de si se ha equivocado o no.
- En Adaline hay una razón de aprendizaje γ para regular lo que va a afectar cada
equivocacion a la modicacion de los pesos. Es siempre un valor entre 0 y 1 para
ponderar el aprendizaje
EJEMPLO
CONCLUSIONES
La Red Adaline es un mecanismo físico capaz de realizar aprendizaje es un elemento
Combinador Adaptativo, recibe un conjunto de entradas y las combina para producir una
salida entonces ADALINE es un modelo de aprendizaje.
Las redes Adaline se basan en el objetivo de evaluar de la forma más correcta la salida,
para de esta manera poder minimizar el error medio cuadrático, por tanto son muy similares
al Perceptrón, lo único en lo que cambian es la transferencia en la salida.
Adaline tiene una considerable diferencia con respecto a Perceptron, puesto que en la
modificación de los pesos que se dan en la preparación, la Red Adaline tiene muy presente
el valor de corrección de la salida estimada con relación a la esperada.
PERCEPTRON MULTICAPA
INTRODUCCION
El perceptrón multicapa es una red neuronal artificial formada por múltiples capas, esto le
permite resolver problemas que no son linealmente separables, lo cual es la principal
limitación del perceptrón .
Dentro del marco de las redes de neuronas, el Perceptrón multicapa es en la actualidad una
de las arquitecturas más utilizadas en la resolución de problemas. Esto es debido,
fundamentalmente, a su capacidad como aproximador universal, así como a su fácil uso y
aplicabilidad. Por otra parte, esto no implica que sea una de las redes más potentes y con
mejores resultados en sus diferentes áreas de aplicación. De hecho, el Perceptrón multicapa
posee una serie de limitaciones, como el largo proceso de aprendizaje para problemas
complejos dependientes de un gran número de variables; la dificultad para realizar un
análisis teórico de la red debido a la presencia de componentes no lineales y a la alta
conectividad.
ARQUITECTURA
La arquitectura de Perceptrón multicapa se caracteriza porque tiene sus neuronas agrupadas
en capas de diferentes niveles. Cada una de las capas está formada por un conjunto de
neuronas y se distinguen tres tipos de capas diferentes: la capa de entrada, las capas ocultas
y la capa de salida.
Las conexiones del Perceptrón multicapa siempre están dirigidas hacia adelante, es decir,
las neuronas de una capa se conectan con las neuronas de la siguiente capa, de ahí que
reciban también el nombre de redes alimentadas hacia adelante o redes feedforward. Las
conexiones entre las neuronas de la red llevan también asociado un umbral, que el caso del
Perceptrón multicapa suele tratarse como una conexión más a la neurona.
CARACTERISTICAS
3. Se evalúa el error cuadrático, “e(n)”, cometido por la red para cada patrón.
APLICACIONES
El rango de tareas que el Perceptrón puede manejar es mucho mayor que simples decisiones
y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para formar el tiempo
pasado de los verbos en inglés, leer texto en inglés y manuscrito. El Perceptrón multicapa
(MLP) puede ser usado para la predicción de una serie de datos en el tiempo; tal a sido su
éxito en la medición de la demanda de gas y electricidad, además, de la predicción de
cambios en el valor de los instrumentos financieros. NETtalk, es un Perceptrón que es
capaz de transformar texto en inglés en sonido individual (representaciones fonéticas) y la
pronunciación con la utilización de un sintetizador de voz; cuenta con aproximadamente
300 nodos de neuronas (siendo 80 en la capa oculta) y 20,000 conexiones individuales.
FUNCIÓN DE ACTIVACIÓN
Si un perceptrón multicapa tiene una función lineal en la activación de todas las neuronas,
es decir, una función lineal que mapea las entradas ponderadas a la salida de cada neurona,
entonces es fácilmente demostrado con el álgebra lineal que cualquier número de capas
puede ser reducido a la norma modelo de de dos capas. Lo que hace que un perceptrón
multicapa diferente es que cada neurona utiliza una función de activación no lineal que se
desarrolló para modelar la frecuencia de potenciales de acción, o de cocción, de las
neuronas biológicas en el cerebro. Esta función se modela de varias maneras.
Las dos funciones principales de activación utilizada en las aplicaciones actuales son ambos
sigmoides, y se describen por:
Funcion sigmoidal
1
𝐹1 (𝑥) =
1 + 𝑒 −𝑥
Tangente hiperbólica
1 − 𝑒 −𝑥
𝐹2 (𝑥) =
1 + 𝑒 −𝑥
ALGORITMO USADO
Esta red neuronal artificial usa el algoritmo backpropagation, la cual permite que la red
aprenda la asociación existente entre un conjunto de patrones de entrada y sus salidas. Esto
se consigue a partir de una representación interna del conocimiento en las capas ocultas a
fin de aprender la relación y aplicar esta misma a las nuevas entradas. En pocas palabras,
permite generalizar la información.
CONCLUSIÓN
El perceptrón multicapa pertenece a la familia de aprendizaje o entrenamiento supervisado
su característica principal es la cantidad de nodos que contiene para obtener entradas de
datos y dar una salida en base al modelo que tiene como función. Es uno de los modelos de
redes neuronales más simples en la inteligencia artificial entonces como tal es la base fuerte
para creación de nuevos modelos. En cuanto respecta a la clase termino como todas no es
una tendencia unos hacen una cosa otros hacen otra realmente según mi experiencia asumo
que aquellos que piensan que pueden hace dos cosas al mismo tiempo están muy
equivocados ya le ponen atención a una sola cosa.