Search Header Logo

Databricks SESION 3

Authored by licibeth delacruz

Other

Professional Development

Used 5+ times

Databricks SESION 3
AI

AI Actions

Add similar questions

Adjust reading levels

Convert to real-world scenario

Translate activity

More...

    Content View

    Student View

12 questions

Show all answers

1.

MULTIPLE CHOICE QUESTION

20 sec • 1 pt

¿Cómo maneja Apache Spark los fallos de nodo durante el procesamiento de datos?

Reiniciando todo el clúster.

Ignorando los datos perdidos.

Recomputando los datos perdidos usando el linaje del RDD.

Solicitando una copia de seguridad del nodo caído.

2.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué método se utiliza para aumentar el número de particiones de un RDD en Spark?

repartition()

coalesce()

broadcast()

reduceByKey()

3.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué describe mejor una operación de acción en Spark?

Una operación que devuelve y transforma un nuevo RDD.

Una operación que modifica el RDD original y lo transforma a Dataframe.

Una operación que gatilla un proceso o escribe datos en un almacenamiento externo.

Una operación que solo se realiza en el driver, y devuelve un valor.

4.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué característica de Apache Spark mejora el rendimiento de las operaciones repetitivas en el mismo dataset?

La transmisión de datos en tiempo real.

El almacenamiento en memoria (caching).

La serialización eficiente de datos.

La distribución automática de la carga de trabajo.

5.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

En el contexto de Spark, ¿qué es un DataFrame?

Una colección distribuida y estructurada de datos organizados en columnas.

Un tipo especial de RDD optimizado para operaciones de agregación.

Un conjunto de datos almacenado en HDFS que no puede ser modificado.

Una estructura de datos que solo permite operaciones de transformación.

6.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué afirmación es verdadera respecto a la operación coalesce() en Spark?

Incrementa el número de particiones de un RDD.

Disminuye el número de particiones de un RDD de manera eficiente.

Realiza una operación de shuffle completo en los datos.

Se utiliza para distribuir datos a través de diferentes nodos.

7.

MULTIPLE CHOICE QUESTION

30 sec • 1 pt

¿Qué componente de Spark es responsable de la planificación de tareas y la gestión de recursos?

Worker

Driver

Executor

YARN

Access all questions and much more by creating a free account

Create resources

Host any resource

Get auto-graded reports

Google

Continue with Google

Email

Continue with Email

Classlink

Continue with Classlink

Clever

Continue with Clever

or continue with

Microsoft

Microsoft

Apple

Apple

Others

Others

Already have an account?