Model Transformer

Model Transformer

University

15 Qs

quiz-placeholder

Similar activities

Komun-e-kasyon

Komun-e-kasyon

University

10 Qs

Autoencoders

Autoencoders

University

15 Qs

Teknik Instrumentasi & Pengukuran

Teknik Instrumentasi & Pengukuran

University

15 Qs

TA Modul 5

TA Modul 5

University

11 Qs

QUIZ 2 NDJ10303 v1

QUIZ 2 NDJ10303 v1

University

10 Qs

Difficult Round Quiz Bee Contest (13th CAF Founding Anniversary)

Difficult Round Quiz Bee Contest (13th CAF Founding Anniversary)

University

10 Qs

test

test

University - Professional Development

15 Qs

Digital Communication techniques : UNIT-1

Digital Communication techniques : UNIT-1

University - Professional Development

20 Qs

Model Transformer

Model Transformer

Assessment

Quiz

Other

University

Easy

Created by

hajiar yuliana

Used 1+ times

FREE Resource

15 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa yang dimaksud dengan model Transformer dalam pemrosesan bahasa alami (NLP)?

Model yang menggunakan arsitektur berbasis jaringan saraf tiruan untuk menerjemahkan bahasa manusia menjadi kode komputer.

Model yang hanya mengandalkan mekanisme perhatian (attention) tanpa menggunakan RNN atau CNN

Model yang hanya digunakan untuk menghasilkan gambar dari teks.

Model yang hanya menggunakan CNN untuk memproses data teks.

2.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Mekanisme attention dalam model Transformer berguna untuk....

Menghasilkan gambar dari teks.

Mempercepat pelatihan model dengan mengurangi jumlah parameter.

Menggantikan seluruh proses encoding-decoding.

Menentukan bagian mana dari input yang harus diperhatikan lebih banyak.

3.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa nama teknik attention yang digunakan dalam model Transformer?

Global Attention

Cross-Attention

Self-Attention

Local Attention

4.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Pada model Transformer, apa fungsi dari positional encoding?

Memberikan informasi tentang urutan token dalam input.

Menggantikan mekanisme attention.

Mengurangi kompleksitas komputasi.

Menghasilkan output dalam bentuk vektor numerik.

5.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Dalam model Transformer, apa yang dimaksud dengan multi-head attention?

Penggunaan beberapa lapisan attention secara paralel untuk menangkap hubungan yang berbeda.

Penggunaan attention untuk menghasilkan gambar.

Penggunaan attention untuk menggantikan fungsi pooling.

Penggunaan satu lapisan attention yang diulang berkali-kali.

6.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa yang dimaksud dengan encoder-decoder architecture dalam model Transformer?

Encoder dan decoder bekerja secara independen tanpa saling berhubungan.

Encoder mengubah input menjadi representasi vektor, sedangkan decoder menghasilkan output dari representasi tersebut.

Encoder hanya digunakan untuk gambar, sedangkan decoder untuk teks.

Encoder-decoder tidak digunakan dalam model Transformer.

7.

MULTIPLE CHOICE QUESTION

1 min • 1 pt

Apa keuntungan utama model Transformer dibandingkan dengan model berbasis RNN?

Transformer lebih mudah diimplementasikan.

Transformer hanya membutuhkan sedikit data untuk dilatih.

Transformer tidak memerlukan pengkodean posisi.

Transformer dapat memproses input secara paralel, sehingga lebih cepat.

Create a free account and access millions of resources

Create resources
Host any resource
Get auto-graded reports
or continue with
Microsoft
Apple
Others
By signing up, you agree to our Terms of Service & Privacy Policy
Already have an account?