Beruflich Dokumente
Kultur Dokumente
Las redes neuronales están volviendo a la actualidad por los logros que están
consiguiendo. Stanford han conseguido generar pies de fotos automáticamente...
Metas bastante impresionantes y que cada vez se acercan más a esa idea original
de reproducir el funcionamiento del cerebro humano en un ordenador.
Ahora bien, ¿en qué consisten estos modelos? ¿Cómo puede imitar un
ordenador el proceso de aprendizaje y acabar desarrollando una "cosa" que
funciona? Hoy en Xataka vamos a profundizar un poco en este tema que tanta
atención está logrando, y vamos a empezar, como siempre, por el principio.
Ahora bien, por bonito que suene esto, el enfoque biológico no ha sido
especialmente útil: las redes neuronales han ido moviéndose para tener un foco
en matemáticas y estadística. Se basan en una idea sencilla: dados unos
parámetros hay una forma de combinarlos para predecir un cierto resultado. Por
ejemplo, sabiendo los píxeles de una imagen habrá una forma de saber qué
número hay escrito, o conociendo la carga de servidores de un Centro de
Procesamiento de Datos (CPD), su temperatura y demás existirá una manera de
saber cuánto van a consumir, como hacía Google. El problema, claro está, es que
no sabemos cómo combinarlos.
¿Cómo usamos una red neuronal para saber cuánto vale cada examen? Aquí nos
bastará con la unidad fundamental de la red neuronal: el perceptrón. Un
perceptrón es un elemento que tiene varias entradas con un cierto peso cada una.
Si la suma de esas entradas por cada peso es mayor que un determinado número,
la salida del perceptrón es un uno. Si es menor, la salida es un cero.
En nuestro ejemplo, las entradas serían las dos notas de los exámenes. Si la
salida es uno (esto es, la suma de las notas por su peso correspondiente es mayor
que cinco), es un aprobado. Si es cero, suspenso. Los pesos son lo que tenemos
que encontrar con el entrenamiento. En este caso, nuestro entrenamiento
consistirá en empezar con dos pesos aleatorios (por ejemplo, 0.5 y 0.5, el mismo
peso a cada examen) y ver qué resultado da la red neuronal para cada alumno. Si
falla en algún caso, iremos ajustando los pesos poco a poco hasta que esté todo
bien ajustado.
Niveles de Neuronas:
Ocultas: son capas que solo sirven para procesar información y comunicar otras
Capas.
Según algunos autores, las capas de entrada y de salida no son validas para
producir procesamiento, y son usadas solo como sensores. Tras plantearlo de
diferentes modos nuestro marco de trabajo se ha diseñado de manera que puede
usarse de las dos maneras, podemos usar las capas de entrada y salida para
procesar o simplemente como sensores.
Forma de Conexión de las Capas:
Consiste en unir cada neurona de una capa con todas las neuronas de la otra
capa. Este tipo de conexionado es el más usado en las redes neuronales, se usa
en todo tipo de uniones desde el Perceptron multicapa a las redes de Hopfield o
BAM
Unión Lineal:
Consiste en unir cada neurona con otra neurona de la otra capa. Este tipo de
unión se usa menos que el anterior y suele usarse para unir la capa de entrada
con la capa procesamiento, si la capa de entrada se usa como sensor. También se
usa en algunas redes de aprendizaje competitivo
Predeterminado:
Las conexiones laterales son conexiones entre neuronas de la misma capa, este
tipo de conexión son muy comunes en las redes mono capa. Si la red admite que
las neuronas tengan conexiones a sí mismas se dice que la red es auto
recurrente.
Otra versión de esta función es la misma pero con la distancia de Manhattan esto
es en vez de usar el uadrado usamos el valor absoluto.En esta regla de
propagación los pesos tienen la misma interpretación que la anterior, da la medida
del parecido entre el patrón de entrada X y los pesos W.
Función de activación
Lineal:
Algunas redes neuronales usan esta función de activación como el Adeline por su
eficiencia y facilidad.
Escalón:
Esta función es la más usada para redes neuronales binarias ya que no es lineal y
es muy simple. Algunas redes que usan esta función son el Perceptrón y Hopfield.
Para redes que trabajan en el rango [-1,1] se usa la funcion signo
Hiperbólicas o tangenciales:
Función de Salida.
Del cerebro, visto a alto nivel y simplificando su estructura, podríamos decir que es
un conjunto de millones y millones de unas células especiales, llamadas neuronas,
interconectadas entre ellas por sinapsis. Las sinapsis son las zonas donde dos
neuronas se conectan y la parte de la célula que esta especializada en ello son las
dendritas y las ramificaciones del axón.