Beruflich Dokumente
Kultur Dokumente
Perceptrón Simple
William Campillay-LLanos
williamcampillay@gmail.com
https://sites.google.com/site/williamcampillay/home
Resumen
Introducción
Referencias
Introducción
Inspiración:
Las Redes Neuronales surgen como intento de emular estructuras
biológicas, en particular estas redes se inspiran en las neuronas de
nuestro cerebro. Es importante señalar que la empresa Citroen
utiliza redes neuronales en la determinación de la calidad del
material utilizado en la confección de los asientos de los vehı́culos.
Ford en reducción de contaminantes y Renault para detectar
desperfectos en el encendido de los automóviles. Una de las
aplicaciones más sorprendentes de estas redes a sido comandar el
aterrizaje de una avión Jumbo sin intervención humana (1).
Creando música con Redes Neuronales
https://www.youtube.com/watch?v=A2gyidoFsoI
Clasificación
Modelamiento Matemático
La membrana de la neurona se comporta como un condensador
que recibe cargas procedentes del exterior o de otras neuronas,
integrándolas y provocando una respuesta, generalmente del tipo
no lineal. Esta idea se presenta en la siguiente figura:
1
Donde g es una función monótona creciente
William Campillay MSc Primavera 2018 Redes Neuronales 8 / 22
Introducción Modelamiento Matemático Aplicado Perceptrón Simple en Matlab Construcción del Programa Referencias
Resultados Matemáticos
Noción de Recuerdo
También es posible considerar la noción de recuerdo que se
traduce en el término de estabilidad en matemática, es decir en
redes con realimentación, al considerarlas como sistemas dinámicos
no lineales, requieren ciertas condiciones para que sus respuesta
converja a une estado estable o punto fijo.
Cohen-Grossberg
Para cualquier sistema dinámico no lineal que se pueda escribir de
las siguiente forma:
n
0
X
xi = αi (xi )[βi (xi ) − mji Sj (xj )] (6)
j=1
Aproximador Universal
Perceptrón Simple
Algoritmo de Aprendizaje
Algoritmo de Levenberg-marquardt
1 Paso 1: Definimos x1 , el punto inicial o primera aproximación
de x ∗ . M el máximo número de iteraciones permitido, y λ el
criterio de convergencia o parada. Hacemos k = 1 y λ1 = 104 .
2 Paso 2: Calculamos ∇f (xk ).
3 Paso 3: Si ∇f (xk ) < , x ∗ = (xk ). Parar.
4 Paso 4: Si k > M, entonces Superado el número de
iteraciones. Parar.
Algoritmo de Levenberg-marquardt
1 Paso 5: Calcular s(xk ) = −[Hf (xk ) + λk I ]−1 ∇f (xk ).
2 Paso 6: Calcular xk+1 = xk + s(xk ).
3 Paso 7: Si f (xk+1 ) < f (xk ), entonces λk+1 = 12 λk y k tiende
k + 1. Ir al paso 2.
4 Paso 8: Si f (xk+1 ) ≥ f (xk ), entonces λk tiende a 2λk . Ir al
paso 5.
Adalina
Perceptrón Multicapa
Programas en Matlab
1 EjemploPrincipal
http://www.mathworks.com/matlabcentral/
fileexchange/44470-single-perceptron-learning
• hardlimit
• evalnet
2 PerceptronSimple1
Referencias