Sie sind auf Seite 1von 7

REDES NEURONALES

Las redes neuronales están volviendo a la actualidad por los logros que están
consiguiendo. Stanford han conseguido generar pies de fotos automáticamente...
Metas bastante impresionantes y que cada vez se acercan más a esa idea original
de reproducir el funcionamiento del cerebro humano en un ordenador.

Ahora bien, ¿en qué consisten estos modelos? ¿Cómo puede imitar un
ordenador el proceso de aprendizaje y acabar desarrollando una "cosa" que
funciona? Hoy en Xataka vamos a profundizar un poco en este tema que tanta
atención está logrando, y vamos a empezar, como siempre, por el principio.

¿Cómo funciona una red neuronal?

A pesar de su nombre, las redes neuronales no tienen un concepto demasiado


complicado detrás de ellas. El nombre, como podéis imaginar, viene de la idea de
imitar el funcionamiento de las redes neuronales de los organismos vivos: un
conjunto de neuronas conectadas entre sí y que trabajan en conjunto, sin que
haya una tarea concreta para cada una. Con la experiencia, las neuronas van
creando y reforzando ciertas conexiones para "aprender" algo que se queda fijo en
el tejido.

Ahora bien, por bonito que suene esto, el enfoque biológico no ha sido
especialmente útil: las redes neuronales han ido moviéndose para tener un foco
en matemáticas y estadística. Se basan en una idea sencilla: dados unos
parámetros hay una forma de combinarlos para predecir un cierto resultado. Por
ejemplo, sabiendo los píxeles de una imagen habrá una forma de saber qué
número hay escrito, o conociendo la carga de servidores de un Centro de
Procesamiento de Datos (CPD), su temperatura y demás existirá una manera de
saber cuánto van a consumir, como hacía Google. El problema, claro está, es que
no sabemos cómo combinarlos.

¿Cómo usamos una red neuronal para saber cuánto vale cada examen? Aquí nos
bastará con la unidad fundamental de la red neuronal: el perceptrón. Un
perceptrón es un elemento que tiene varias entradas con un cierto peso cada una.
Si la suma de esas entradas por cada peso es mayor que un determinado número,
la salida del perceptrón es un uno. Si es menor, la salida es un cero.
En nuestro ejemplo, las entradas serían las dos notas de los exámenes. Si la
salida es uno (esto es, la suma de las notas por su peso correspondiente es mayor
que cinco), es un aprobado. Si es cero, suspenso. Los pesos son lo que tenemos
que encontrar con el entrenamiento. En este caso, nuestro entrenamiento
consistirá en empezar con dos pesos aleatorios (por ejemplo, 0.5 y 0.5, el mismo
peso a cada examen) y ver qué resultado da la red neuronal para cada alumno. Si
falla en algún caso, iremos ajustando los pesos poco a poco hasta que esté todo
bien ajustado.

Por ejemplo, si un alumno con muy buena nota en el segundo examen ha


suspendido el curso, bajaremos el peso del segundo examen porque claramente
no influye demasiado. Poco a poco acaberemos encontrando los pesos que se
ajusten a las notas que puso el profesor. La idea del ajuste o retroalimentación es
ir adaptando la red a la información "oculta" que tienen los datos que le pasamos
para que aprenda.

Niveles de Neuronas:

La distribución de neuronas dentro de la red se realiza formando niveles o capas


de un número determinado de neuronas cada una. A partir de su situación dentro
de la red se pueden distinguir tres tipos de capas:

De entrada: estas capas reciben la información desde el exterior.

De Salida: estas envían la información hacia el exterior

Ocultas: son capas que solo sirven para procesar información y comunicar otras
Capas.

Según algunos autores, las capas de entrada y de salida no son validas para
producir procesamiento, y son usadas solo como sensores. Tras plantearlo de
diferentes modos nuestro marco de trabajo se ha diseñado de manera que puede
usarse de las dos maneras, podemos usar las capas de entrada y salida para
procesar o simplemente como sensores.
Forma de Conexión de las Capas:

Las neuronas se conectar unas a las otras usando sinapsis.

Si miramos más detenidamente observamos que estas uniones a nivel de capa


forman distintas estructuras. Podemos distinguir varias como:

Unión Todos con Todos:

Consiste en unir cada neurona de una capa con todas las neuronas de la otra
capa. Este tipo de conexionado es el más usado en las redes neuronales, se usa
en todo tipo de uniones desde el Perceptron multicapa a las redes de Hopfield o
BAM

Unión Lineal:

Consiste en unir cada neurona con otra neurona de la otra capa. Este tipo de
unión se usa menos que el anterior y suele usarse para unir la capa de entrada
con la capa procesamiento, si la capa de entrada se usa como sensor. También se
usa en algunas redes de aprendizaje competitivo

Predeterminado:

Este tipo de conexionado aparece en redes que tienen la propiedad de agregar o


eliminar neuronas de sus capas y de eliminar también conexiones.

Si establecemos un orden en las capas podemos establecer conexiones hacia


delante, hacia atrás o conexiones laterales. Esto sirve para clasificar las redes en
feedforward o hacia delante, no tienen ninguna conexión hacia atrás, y feedback o
hacia atrás que si permiten este tipo de conexiones.

Las conexiones laterales son conexiones entre neuronas de la misma capa, este
tipo de conexión son muy comunes en las redes mono capa. Si la red admite que
las neuronas tengan conexiones a sí mismas se dice que la red es auto
recurrente.

Función de propagación o ponderación

Esta función se encarga de transformar las diferentes entradas que provienen de


la sinapsis en el potencial de la neurona.

Normalmente se usa como función de propagación la suma ponderada de las


entradas multiplicadas por los pesos. En esta función se interpreta como un
regulador de las señales que se emiten entre neuronas al ponderar las salidas que
entran a la neurona.

Otra regla de propagación usada es la distancia euclídea. Usada en los mapas de


kohonen y algunas redes competitivas.En ella, los pesos sinápticos funcionan de
manera distinta al anterior ya que lo que hacen es aproximarse lo máximo posible
al vector de entrada. Es utilizada en redes no supervisadas para que se ajuste a
los patrones.

Otra versión de esta función es la misma pero con la distancia de Manhattan esto
es en vez de usar el uadrado usamos el valor absoluto.En esta regla de
propagación los pesos tienen la misma interpretación que la anterior, da la medida
del parecido entre el patrón de entrada X y los pesos W.
Función de activación

La función de activación combina el potencial postsinaptico, que nos proporciona


la función de propagación, con el estado actual de la neurona para conseguir el
estado futuro de activación de la neurona. Sin embargo, es muy común que las
redes neuronales no tomen su propio estado como un parámetro y que por tanto
no se considere. Esta función es normalmente creciente monótona y podemos
citar las funciones más comunes:

Lineal:

Algunas redes neuronales usan esta función de activación como el Adeline por su
eficiencia y facilidad.

Escalón:

Esta función es la más usada para redes neuronales binarias ya que no es lineal y
es muy simple. Algunas redes que usan esta función son el Perceptrón y Hopfield.
Para redes que trabajan en el rango [-1,1] se usa la funcion signo

Hiperbólicas o tangenciales:

Las redes con salidas continuas, como el Perceptron multicapa con


retropropagación, usan esta función ya que su algoritmo de aprendizaje necesita
una función derivable

Función de Salida.

Esta función convierte el estado de la neurona en la salida hacia la siguiente


neurona que se transmite por las sinapsis. Usualmente no se considera y se toma
la identidad, esto es, de manera que la salida es el propio estado de activación de
la neurona.

Existen algunas redes que transforman su estado de activación en una salida


binaria y para eso usan la función escalón antes mostrada como salida.
Otra opción, consiste en usar funciones probabilísticas como en la máquina de
Boltzman. Las redes con este tipo de salidas no tienen un comportamiento
determinista.

Del cerebro, visto a alto nivel y simplificando su estructura, podríamos decir que es
un conjunto de millones y millones de unas células especiales, llamadas neuronas,
interconectadas entre ellas por sinapsis. Las sinapsis son las zonas donde dos
neuronas se conectan y la parte de la célula que esta especializada en ello son las
dendritas y las ramificaciones del axón.

Cada neurona desarrolla impulsos eléctricos que se transmiten a lo largo de una


parte de la célula muy alargada llamada axón, al final del axón este se ramifica en
ramificaciones axonales que van a conectarse con otras neuronas por sus
dendritas.

El conjunto de elementos que hay entre la ramificación axonal y la dendrita forman


una conexión llamada sinapsis que regula la transmisión del impulso eléctrico
mediante unos elementos bioquímicas, los neurotransmisores.
Los neurotransmisores liberados en las sinapsis al final de las ramificaciones
axonales pueden tener un efecto negativo o positivo sobre la transmisión del
impulso eléctrico de la neurona que los recibe en sus dendritas. La neurona
receptora recibe varias señales desde las distintas sinapsis y las combina
consiguiendo un cierto nivel de estimulación o potencial.

En función de este nivel de activación, La neurona emite señales eléctricas con


una intensidad determinada mediante impulsos con una frecuencia llamada tasa
de disparo que se transmiten por el axón.

Si consideramos que la información en el cerebro esta codificada como impulsos


eléctricos que se transmiten entre las neuronas y que los impulsos se ven
modificados básicamente en las sinapsis cuando las señales son químicas
podemos intuir que la codificación del aprendizaje estará en las sinapsis y en la
forma que dejan pasar o inhiben las señales segregando neurotransmisores.

En resumen y simplificando mucho todo el tema a lo que nosotros necesitamos


saber, podríamos decir que la información en el celebro se transmite mediante
impulsos eléctricos, que viajan por las neuronas biológicas y por señales químicas
que comunican las neuronas con otras neuronas en sus bordes usando unas
estructuras llamadas sinapsis.

VALERIA FLOREZ DAZA

9*2 JORNADA TARDE

Das könnte Ihnen auch gefallen