Sie sind auf Seite 1von 4

Prueba de autoevaluación de Redes Neuronales

Marzo de 2011

Para cada una de las opciones de cada pregunta, indicar si es verdadera o falsa

1.- El bias en una red neuronal feedforward

a) Se aprende como un peso más

b) Se fija al principio del algoritmo de entrenamiento de manera aleatoria

c) Tiene siempre unos valores fijos

2.- El orden para calcular el valor de los nodos en una red feedforward

a) Es de adelante hacia atrás

b) Es de atrás hacia delante

c) Es de atrás hacia delante y de arriba hacia abajo

d) Se realiza por capas de atrás hacia delante, sin importar el orden dentro de una capa

e) Se realiza por capas de atrás hacia delante, y manteniendo el orden dentro de una capa

3) La función de activación sigmoide toma valores

a) En [0,1]

b) En {0,1}

c) En (0,1)

4) La función de activación del perceptron es la función de umbral

a) Cierto

b) Falso

5) El algoritmo de entrenamiento del perceptron

a) Siempre converge

b) Converge hacia un mínimo local

c) Converge solo si el problema es linealmente separable

6) Cuantos más nodos tenga una red neuronal

a) Mejor aprende

b) Mejor aprende los ejemplos de entrenamiento

c) Más iteraciones tiene que dar el algoritmo de aprendizaje para aprender

d) Más pequeña conviene poner la tasa de aprendizaje

e) Más grande conviene poner el momento


7) El backpropagation

a) Se basa en el descenso en gradiente para minimizar el error

b) Se basa en el descenso en gradiente para minimizar el error con los ejemplos de entrenamiento

c) Necesita que la función de activación sea derivable

d) Es un algoritmo muy rápido

e) Solo aprende problemas linealmente separables

f) Solo funciona en problemas con una sola salida

8) El número máximo de iteraciones

a) Depende de la topología de la red

b) Se obtiene viendo cuando el error de entrenamiento no disminuye

c) Se obtiene viendo cuando el error de validación empieza a aumentar

9) Respecto a las capas de las redes neuronales:

a) Cuantas más capas se usan mejor se aprende un problema

b) Es mejor utilizar siempre dos capas ocultas

c) Es mejor utilizar siempre una capa oculta

d) Es conveniente empezar utilizando una sola capa oculta

e) Depende del número de entradas

10) Las redes neuronales

a) Se usan para aprender a resolver un problema partir de ejemplos

b) Se usan para simular el cerebro humano

c) Son indicadas para calcular más rápido

d) Son capaces de resolver cualquier problema

d) Son capaces de resolver cualquier problema del que se disponga de ejemplos

11) La entrada neta de una neurona

a) Depende de la función de activación

b) Depende de los pesos y del bias

c) Solo importa su signo

12) Con una función de activación lineal se puede resolver

a) Cualquier problema linealmente separable

b) Sólo algunos problemas


13) En el algoritmo del backpropagation

a) La tasa de aprendizaje solo sirve para que converja más rápido

b) La tasa de aprendizaje tiene que ser pequeña para asegurarse que converja

c) El número máximo de iteraciones solo sirve para parar el algoritmo

d) El número máximo de iteraciones es lo que asegura un aprendizaje correcto

e) Es fundamental elegir un momento bastante grande para evitar que se paralice el aprendizaje

14) La validación

a) Sólo es útil para asegurarme que la red no se colgara colgada

b) Es imprescindible para asegurarse que el aprendizaje de la red es correcto

c) Es fundamental para evitar el sobreaprendizaje

d) Se utiliza para estimar como de bueno será el resultado

15) El sobre aprendizaje

a) Es algo muy raro

b) Es el principal problema que pueden tener las redes neuronales

c) Se evita haciendo pruebas para ver cuando debemos de parar el entrenamiento

d) Es bueno, pues nunca se aprende demasiado

16) En la validación cruzada

a) La partición de los ejemplos en subconjuntos se puede hacer de cualquier forma

b) La partición de los ejemplos en subconjuntos de debe de hacer de forma aleatoria mediante un sorteo

c) Cada ejemplo se usa varias veces para entrenar y una sola vez para validar

d) Cada ejemplo se usa varias veces tanto para entrenar como para validar

17) En la validación simple

a) Es mejor tomar un conjunto de entrenamiento pequeño y uno de validación grande

b) Es mejor tomar los subconjuntos de entrenamiento y validación del mismo tamaño

c) Depende del número de ejemplos del que se disponga, pero se suele tomar el conjunto de
entrenamiento más grande que el de validación

18) Cuantos más ejemplos

a) Mejor aprende la red

b) Peor aprende la red porque el algoritmo de aprendizaje es más lento

c) Normalmente mejor aprende la red, pero también influye la distribución de los ejemplos.
19) Una iteración del algoritmo del backpropagation

a) Consiste en una pasada por todos los ejemplos modificando los pesos con cada ejemplo

b) Consiste modificar los pesos con un ejemplo

c) Depende de la tasa de aprendizaje y del momento

20) Para fijar los parámetros óptimos a aplicar en el algoritmo del backpropagation

a) La tasa de aprendizaje y el momento se eligen de manera aleatoria y el número máximo de iteraciones


se aprende haciendo pruebas

b) La tasa de aprendizaje y el momento se eligen de manera aleatoria, pero asegurándonos que el


algoritmo converge en un tiempo prudencial, y el número máximo de iteraciones se aprende haciendo
pruebas

c) Se van probando distintas combinaciones de tasa de aprendizaje, momento y número máximo de


iteraciones, y se elige la que mejor resultado de

d) Se fija el número máximo de iteraciones y se eligen la tasa de aprendizaje y el momento para que el
algoritmo sea capaz de aprender con esas iteraciones

Das könnte Ihnen auch gefallen