Sie sind auf Seite 1von 2

Luis Alejandro Corona Contreras Data Were House and Data Mining 20080907 8vo.

El Perceptrn Simple El Perceptrn bsico de dos capas (entrada con neuronas lineales, analgicas, y la de salida con funcin de activacin de tipo escaln, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendra un hiperplano.

Un Perceptrn con tres niveles de neuronas puede formar cualquier regin convexa en este espacio. Las regiones convexas se forman mediante la inteleccin entre las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrn simple, activndose su salida para los patrones de un lado del hiperplano.

Un Perceptrn con cuatro capas puede generar regiones de decisin arbitrariamente complejas. El proceso de separacin en clases que se lleva a cabo consiste en la particin de la regin deseada en pequeos hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el numero de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lgico de la salida de los nodos del nivel anterior. La salida de los nodos de este tercer nivel se activaran solo para las entradas de cada hipercubo. Los hipercubos se asignan a la regin de decisin adecuada mediante la conexin de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la regin de decisin en la que este comprendido el hipercubo llevndose a cabo una operacin lgica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos.

Luis Alejandro Corona Contreras Data Were House and Data Mining 20080907 8vo. A

En teora, el Perceptrn de 4 capas puede resuelve una gran variedad de problemas cuyas entradas sean analgicas, la salida sea digital y sea linealmente separable. El problema prctico radica en el numero de neuronas, en el numero idneo de capas ocultas, la extensin de la funcin de activacin, el tiempo de entrenamiento de la red, las implicaciones en la generacin de ruido (al tener un numero excesivo de neuronas) en contraparte con la ventaja de tener un sistema tolerante a fallas al tener un numero de neuronas redundante. Entrenamiento y Operacin del perceptrn el perceptrn es una red supervisada. Esto quiere decir que debe ser entrenada con un conjunto de patrones previamente clasificados de manera que, si los clasifica incorrectamente, se pueda corregir el error mediante una regla de aprendizaje. En general, para entrenar la red, necesitaremos un conjunto de patrones previamente clasificados llamado muestra de entrenamiento y un conjunto de patrones llamado muestra de control con el que se probar el poder de generalizacin de nuestra red. Existen varios mtodos, no slo aplicables a Redes Neuronales sino a cualquier clasificador, para entrenar y probar el clasificador como pueden ser el Hold Out, el de Validacin Cruzada o el Leaving One out entre otros, pero bueno, eso es harina de otro costal. El entrenamiento se da en iteraciones; una iteracin comienza cuando se le presenta el primer patrn de la muestra de entrenamiento y finaliza cuando se le muestra el ltimo patrn de la muestra de entrenamiento. En cada iteracin, se presentan uno por uno los patrones de la muestra de entrenamiento a la red y, si lo clasifica bien, se prosigue con el siguiente patrn pero si lo clasifica mal, se corrigen los pesos mediante la regla de aprendizaje y se sigue con el siguiente patrn utilizando los nuevos pesos. El entrenamiento concluye cuando pasa una iteracin en la que clasific correctamente todos los patrones o bien, se alcanza un lmite de iteraciones previamente definido por nosotros.

Das könnte Ihnen auch gefallen