Cuestionario sobre Mini LLM

Cuestionario sobre Mini LLM

University

5 Qs

quiz-placeholder

Similar activities

kuis LLM

kuis LLM

12th Grade - University

10 Qs

ACM AI Projects Week 3 Kahoot

ACM AI Projects Week 3 Kahoot

University

10 Qs

TIC´s

TIC´s

University

10 Qs

ML B2 CH6

ML B2 CH6

University

10 Qs

G&N Unit 9

G&N Unit 9

University

8 Qs

IA Based Testing

IA Based Testing

University

8 Qs

Redes de Flujo

Redes de Flujo

University

10 Qs

Deep Learning para texto

Deep Learning para texto

University

5 Qs

Cuestionario sobre Mini LLM

Cuestionario sobre Mini LLM

Assessment

Quiz

Computers

University

Hard

Created by

Alfonso Meléndez

Used 1+ times

FREE Resource

5 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Cuál es la tarea principal que realiza un mini LLM (o cualquier modelo de lenguaje)?

Traducir texto de un idioma a otro

Predecir el siguiente token en una secuencia de texto

Resumir documentos largos

Responder preguntas de opción múltiple

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En el mini LLM descrito, ¿qué representan las "neuronas"?

Letras individuales del texto

Las entradas de la tabla de embeddings

Los valores no nulos después de aplicar la función ReLU

Los logits finales antes de la softmax

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué función cumple la softmax en este modelo?

Lineariza los logits en embeddings de tokens

Normaliza los logits en probabilidades para cada posible token siguiente

Reduce la dimensionalidad del estado oculto

Determina qué neuronas están activas

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Por qué es suficiente que el mini LLM aprenda solo pesos y sesgos lineales (sin capas profundas)?

Porque el lenguaje es fundamentalmente un proceso lineal

Porque con una sola capa oculta y softmax se pueden capturar patrones de coocurrencia

Porque más capas ralentizan demasiado el entrenamiento

Porque las activaciones no lineales son perjudiciales en los transformers

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En el ejemplo de aprender asociaciones (como que "gato" frecuentemente sigue a "el"), ¿qué parámetros ajusta el modelo?

La tasa de aprendizaje durante el descenso de gradiente

Los valores de los tokens en el vocabulario

Los embeddings de los tokens y los pesos que conectan al estado oculto con los logits

La temperatura de la softmax