Search Header Logo

Quizz M7

Authored by Leidiane Beatriz

Instructional Technology

Professional Development

Used 2+ times

Quizz M7
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

10 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Sobre arquiteturas profundas para NLP, é correto afirmar que:

Apenas redes neurais convolucionais são utilizadas em NLP.

Modelos como Transformers e RNNs são exemplos de arquiteturas profundas usadas em NLP.

Redes neurais profundas não melhoram significativamente o desempenho em NLP.

Modelos de atenção são obsoletos e foram substituídos por SVMs.

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual a principal limitação das redes neurais recorrentes (RNNs) tradicionais?

Não podem ser usadas para modelar sequências temporais.

Excesso de parâmetros comparado às redes convolucionais.

Dificuldade em processar sequências de tamanho variável.

Incapacidade de capturar dependências de longo prazo devido ao problema do desaparecimento do gradiente.

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual é a principal inovação dos modelos Transformer em comparação com as RNNs?

Uso de convoluções profundas para capturar contexto.

Utilização de apenas uma camada para modelar texto.

Substituição das recorrências pelo mecanismo de atenção, permitindo processamento paralelo.

Introdução das redes LSTM para melhorar a memória de curto prazo.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Como funciona o mecanismo de atenção nos Transformers?

Ele prioriza palavras aleatórias no texto de entrada.

Ele ajusta dinamicamente os pesos das palavras na sequência, destacando as mais relevantes para cada token.

Ele usa apenas a palavra anterior para prever a próxima palavra.

Ele aplica convoluções para calcular relações entre palavras.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Qual é a principal diferença entre RNN e LSTM?

LSTMs possuem portas que ajudam a mitigar o desaparecimento do gradiente, enquanto RNNs comuns não.

LSTMs são redes convolucionais aplicadas ao NLP.

RNNs são um tipo de Transformer aprimorado.

LSTMs não conseguem lidar com sequências temporais longas.

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

No modelo SEQ2SEQ com LSTM, o que é o "encoder-decoder"?

Um mecanismo de compressão de texto usado para diminuir a quantidade de dados.

Uma abordagem que usa um LSTM para codificar uma sequência de entrada e outro LSTM para decodificá-la em uma sequência de saída.

Um algoritmo baseado em regras para tradução automática.

Um método exclusivo para gerar embeddings de palavras.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

O que diferencia o ULMFit de outros modelos de NLP?

Ele substitui completamente modelos baseados em Transformers.

Ele não requer pré-treinamento e é treinado do zero para cada nova tarefa.

Ele depende exclusivamente de redes convolucionais para processar texto.

Ele utiliza uma abordagem de fine-tuning de aprendizado profundo para adaptar modelos pré-treinados a tarefas específicas de NLP.

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?

Discover more resources for Instructional Technology