P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

University

30 Qs

quiz-placeholder

Similar activities

Neuropsicologia

Neuropsicologia

University

25 Qs

Excel

Excel

University

25 Qs

Objeto de estudio de la Administración

Objeto de estudio de la Administración

University

25 Qs

2023. Tendencias financieras semana 1

2023. Tendencias financieras semana 1

University

26 Qs

ADMINISTRACION 2 (ordinario)

ADMINISTRACION 2 (ordinario)

University

25 Qs

Administración de Oxigeno

Administración de Oxigeno

University

25 Qs

Examen Diagnóstico Bloque 3

Examen Diagnóstico Bloque 3

University

25 Qs

ISO 9001

ISO 9001

University

27 Qs

P23 | Resolución de ejercicios

P23 | Resolución de ejercicios

Assessment

Quiz

Other

University

Medium

Created by

Chiara Calviello Crusella

Used 4+ times

FREE Resource

30 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

ReLU es una función de ...

... costo.

... activación.

... pérdida.

2.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

3.

MULTIPLE SELECT QUESTION

2 mins • 1 pt

La función Leaky ReLU ayuda a mitigar el problema del gradiente que se desvanece si, por la red neuronal, fluyen ...

... tanto positivos como negativos.

... sólo positivos.

... sólo negativos.

4.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

El teorema de aproximación universal de Hornik establece que una red feedforward con una sola capa oculta es suficiente para aproximar, con precisión arbitraria, cualquier función con un número finito de discontinuidades, siempre y cuando las funciones de activación de las neuronas sean lineales.

Verdadero

Falso

Answer explanation

Siempre y cuando las funciones de activación de las neuronas sean NO lineales.

5.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

La función de pérdida asociada a todo perceptrón multicapa es siempre convexa.

Verdadero

Falso

Answer explanation

De hecho, suele ser NO convexa.

6.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones no-convexas.

Verdadero

Falso

Answer explanation

NO lo garantiza.

7.

MULTIPLE CHOICE QUESTION

2 mins • 1 pt

Con una cantidad suficiente de iteraciones y un tamaño del paso adecuado, el algoritmo de descenso por gradiente garantiza encontrar el mínimo global en funciones convexas.

Verdadero

Falso

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?