Künstliche Intelligenz und Vorurteilee

Künstliche Intelligenz und Vorurteilee

6th - 8th Grade

9 Qs

quiz-placeholder

Similar activities

Water & River Systems

Water & River Systems

6th - 7th Grade

10 Qs

Exploring Cell Structures

Exploring Cell Structures

6th Grade - University

10 Qs

black hole quizizz

black hole quizizz

6th Grade

12 Qs

TEXTILE TRADITIONS GRADE 4 ARTS

TEXTILE TRADITIONS GRADE 4 ARTS

4th - 6th Grade

10 Qs

Living Together 1 and 2 - Spelling Words

Living Together 1 and 2 - Spelling Words

6th Grade

14 Qs

6th Grade- Chapter 7 Test Review

6th Grade- Chapter 7 Test Review

6th Grade

13 Qs

Unit 2 Quiz Prep2 B

Unit 2 Quiz Prep2 B

7th - 8th Grade

12 Qs

Quiz Game for littering

Quiz Game for littering

6th Grade

10 Qs

Künstliche Intelligenz und Vorurteilee

Künstliche Intelligenz und Vorurteilee

Assessment

Quiz

Science

6th - 8th Grade

Medium

Created by

Jasmin Hauser

Used 1+ times

FREE Resource

AI

Enhance your content in a minute

Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...

9 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein Problem bei der Verwendung von künstlicher Intelligenz, um Bewerber für Vorstellungsgespräche auszuwählen?

Die Maschinen können nicht lesen

Die Maschinen können keine Entscheidungen treffen

Die Maschinen können nicht objektiv urteilen

Die Maschinen können keine Daten verarbeiten

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was haben Forscher gezeigt, dass Sprachsysteme verstärken?

Den Zusammenhang zwischen Krankenschwester/Krankenpfleger und Mann

Den Zusammenhang zwischen Krankenschwester/Krankenpfleger und Frau

Den Zusammenhang zwischen Arzt/Ärztin und Frau

Den Zusammenhang zwischen Arzt/Ärztin und Mann

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein wichtiger Schritt, um die Fehleranalyse ernst zu nehmen?

Zu wissen, wer von der Ungenauigkeit betroffen ist

Zu wissen, wie die Fehler behoben werden können

Zu wissen, wie viele Fehler gemacht wurden

Zu wissen, welche Maschinen die Fehler gemacht haben

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein Problem bei der Verwendung von Zeitungsartikeln als Trainingsdaten für Sprachsysteme?

Die Artikel sind zu lang

Die Artikel sind zu kurz

Die Artikel enthalten oft Vorurteile und Verzerrungen

Die Artikel sind nicht relevant

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was haben Forscher gezeigt, dass künstliche Intelligenz mit positiven Begriffen assoziiert?

Blumen und europäisch-amerikanische Vornamen

Blumen und afroamerikanische Namen

Insekten und europäisch-amerikanische Vornamen

Insekten und afroamerikanische Namen

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein Beispiel für eine versteckte Vorurteil in den Trainingsdaten?

Die Maschinen lernen, dass Katze und Kühlschrank ähnliche Konzepte sind

Die Maschinen lernen, dass Hund und Katze verschiedene Konzepte sind

Die Maschinen lernen, dass Hund und Kühlschrank ähnliche Konzepte sind

Die Maschinen lernen, dass Hund und Katze ähnliche Konzepte sind

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein Beispiel für eine versteckte Vorurteil in den Trainingsdaten?

Die Maschinen lernen, dass Kunst mehr mit Männern assoziiert ist

Die Maschinen lernen, dass Mathematik und Wissenschaft mehr mit Männern assoziiert sind

Die Maschinen lernen, dass Kunst mehr mit Frauen assoziiert ist

Die Maschinen lernen, dass Mathematik und Wissenschaft mehr mit Frauen assoziiert sind

8.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

Was ist ein Beispiel für eine versteckte Vorurteil in den Trainingsdaten?

Die Maschinen lernen, dass europäisch-amerikanische Vornamen mit negativen Begriffen assoziiert sind

Die Maschinen lernen, dass afroamerikanische Namen mit positiven Begriffen assoziiert sind

Die Maschinen lernen, dass europäisch-amerikanische Vornamen mit positiven Begriffen assoziiert sind

Die Maschinen lernen, dass afroamerikanische Namen mit negativen Begriffen assoziiert sind

9.

MULTIPLE SELECT QUESTION

45 sec • 1 pt

Was ist ein Beispiel für eine versteckte Vorurteil in den Trainingsdaten?

Die Maschinen lernen, dass männliche Namen semantisch näher an Karrierebegriffen assoziiert sind

Die Maschinen lernen, dass weibliche Namen semantisch näher an Familie assoziiert sind

Die Maschinen lernen, dass weibliche Namen semantisch näher an Karrierebegriffen assoziiert sind

Die Maschinen lernen, dass männliche Namen semantisch näher an Familie assoziiert sind