Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

12th Grade

13 Qs

quiz-placeholder

Similar activities

Brillore Quiz

Brillore Quiz

12th Grade - University

15 Qs

Quiz sul Vetro

Quiz sul Vetro

2nd Grade - University

10 Qs

Quiz sull'Energia

Quiz sull'Energia

9th Grade - University

15 Qs

Bureautique 7amps

Bureautique 7amps

1st - 12th Grade

15 Qs

Funzioni in PHP

Funzioni in PHP

12th Grade

10 Qs

TIC Primaria 2021 - P. Muoio

TIC Primaria 2021 - P. Muoio

10th Grade - Professional Development

10 Qs

JAVA GUI

JAVA GUI

11th - 12th Grade

15 Qs

VETRO-PLASTICA-CERAMICA-TESSUTI

VETRO-PLASTICA-CERAMICA-TESSUTI

10th - 12th Grade

15 Qs

Quiz Lab 2 - LLM

Quiz Lab 2 - LLM

Assessment

Quiz

Instructional Technology

12th Grade

Hard

Created by

Francesco Plutino

FREE Resource

13 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa significa "language model" nel contesto dei LLM?

Un sistema che stima la probabilità di una sequenza di parole

Un modello che imita la grammatica umana

Un'app che traduce tra lingue

Un algoritmo che riconosce solo comandi vocali

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Perché i LLM usano i "token" invece delle parole intere?

Per gestire parole nuove o parziali

Per essere compatibili con immagini

Per occupare meno memoria

Per criptare i dati

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa fa il positional encoding?

Aggiunge l'informazione sulla posizione dei token nel testo

Ordina alfabeticamente i token

Codifica il tono della frase

Traduce le parole in immagini

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Nella self-attention, cosa misura il prodotto tra Q e K?

L'importanza relativa tra token in base al contesto

Il numero di token simili

La differenza semantica tra token

La posizione nel batch

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è l'effetto di temperature=1.5 nella generazione del testo?

Il testo sarà più creativo ma anche meno coerente

Il testo sarà molto breve

Il testo sarà sempre in inglese

Blocca la generazione

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Cosa succede se `top_k` è impostato a 1?

Il modello sceglie sempre il token più probabile

Il modello genera solo un token

Si attiva il training

Non funziona la generazione

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual è il ruolo della matrice di embedding?

Trasformare i token in vettori numerici

Ordinare i token

Convertire immagini in testo

Eseguire l'output finale

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?