
PREGUNTAS dbfs-spark SESION4
Authored by licibeth delacruz
Other
Professional Development
Used 2+ times

AI Actions
Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...
Content View
Student View
12 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Cómo maneja Apache Spark los fallos de nodo durante el procesamiento de datos?
a. Reiniciando todo el clúster.
b. Ignorando los datos perdidos
c. Recomputando los datos perdidos usando el linaje del RDD.
d. Solicitando una copia de seguridad del nodo caído.
2.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Qué método se utiliza para aumentar el número de particiones de un RDD en Spark?
a. repartition()
b. coalesce()
c. broadcast()
d. reduceByKey()
3.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Qué describe mejor una operación de acción en Spark?
a. Una operación que devuelve y transforma un nuevo RDD.
b. Una operación que modifica el RDD original y lo transforma a Dataframe.
c. Una operación que gatilla un proceso o escribe datos en un almacenamiento externo.
d. Una operación que solo se realiza en el driver, y devuelve un valor.
4.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Qué característica de Apache Spark mejora el rendimiento de las operaciones repetitivas en el mismo dataset?
a. La transmisión de datos en tiempo real.
b. El almacenamiento en memoria (caching).
c. La serialización eficiente de datos.
d. La distribución automática de la carga de trabajo.
5.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
En el contexto de Spark, ¿qué es un DataFrame?
a. Una colección distribuida y estructurada de datos organizados en columnas.
b. Un tipo especial de RDD optimizado para operaciones de agregación.
c. Un conjunto de datos almacenado en HDFS que no puede ser modificado.
d. Una estructura de datos que solo permite operaciones de transformación.
6.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Qué afirmación es verdadera respecto a la operación coalesce() en Spark?
a. Incrementa el número de particiones de un RDD.
b. Disminuye el número de particiones de un RDD de manera eficiente.
c. Realiza una operación de shuffle completo en los datos.
d. Se utiliza para distribuir datos a través de diferentes nodos.
7.
MULTIPLE CHOICE QUESTION
20 sec • 1 pt
¿Qué componente de Spark es responsable de la planificación de tareas y la gestión de recursos?
a. Worker
b. Driver
c. Executor
d. YARN
Access all questions and much more by creating a free account
Create resources
Host any resource
Get auto-graded reports

Continue with Google

Continue with Email

Continue with Classlink

Continue with Clever
or continue with

Microsoft
%20(1).png)
Apple
Others
Already have an account?