Sie sind auf Seite 1von 4

Quiz

Frage 1 (1 Punkt)
Auf das Derby DB-Lagerverzeichnis wird durch "spark.sql.warehouse.dir" hingewiesen. Es erstellt eine
Datenbank, wenn nicht vorhanden sales_db: Wenn Verkaufsmetadaten aus dem Metastore und aus dem
Lagerverzeichnis entfernt werden (Hive hat zweiteilige Metadaten und Daten. Metadaten sind im Metastore
und Daten sind im Dateisystem, so dass die tatsächlichen Daten in
"C:/Users/pedro/Documents/test_data/hive" sind)
Frage 1 Optionen:
Wahr
Falsch

Frage 2 (1 Punkt)
In Spark SQL wird mit dem Catalyst-Switch eine hohe Leistung erzielt.
Frage 2 Optionen:
Wahr
Falsch

Frage 3 (1 Punkt)
Data Frame ist ein Datensatz, dessen Spalten keinen Namen haben.
Frage 3 Optionen:
Wahr
Falsch

Frage 4 (1 Punkt)

Datenquellen haben ihre eigenen Optionen, die während des Ladevorgangs angegeben werden können:
val salesRecords = spark.read.format("csv") .option("sep", ";").option("inferSchema", "true")
.option("header", "false") .load("/Users/hadoop-user/Documents/SalesJan2009.csv").

Beim Lesen einer CSV-Datei wird immer die erste Zeile als Header übernommen, wenn die Header-Option auf
false gesetzt ist, wie im obigen Beispiel gezeigt
Frage 4 Optionen:
Wahr
Falsch

Frage 5 (1 Punkt)
Wenn beim Lesen von Parkettdateien der Basisspeicherort der Tabelle als Pfad angegeben ist, werden die
Partitionen nicht automatisch erkannt
Frage 5 Optionen:
Wahr
Falsch

Frage 6 (1 Punkt)
Data Frame läuft auf einem bestimmten Motor der Spark-Umgebung. Dieser Motor hieß Katalysatormotor.
Frage 6 Optionen:
Wahr
Falsch
Frage 7 (1 Punkt)
Die Hive-Unterstützung muss bei der Spark-Sitzung aktiviert werden. Das Hive-Lagerverzeichnis muss als
"spark.sql.warehouse.dir" festgelegt werden. Sobald die Sitzung erstellt wurde, können SQL-Anweisungen mit
sparkSession.sql ("<sql_statement>") ausgegeben werden. Bucket , Sortierung und Partitionierung können auf
den zu speichernden Tabellen durchgeführt werden.
Frage 7 Optionen:
Wahr
Falsch

Frage 8 (1 Punkt)
In Spark SQL ,The whole things happening in memory .We don 't have any db.Every thing happening in
memory .Spark is In memory db .Any thing you do in any db you can do it here too.
Frage 8 Optionen:
Wahr
Falsch

Frage 9 (1 Punkt)
Wenn Sie tempview erstellen, erstellen Sie nur für diese Sitzung, aber wenn Sie globalview erstellen, ist es für
alle Sitzungen verfügbar.
Frage 9 Optionen:
Wahr
Falsch

Frage 10 (1 Punkt)
Globale Ansicht für alle Sitzungen verfügbar, aber nicht, wenn wir die aktuelle Sitzung schließen
Frage 10 Optionen:
Wahr
Falsch

Frage 11 (1 Punkt)
In Bezug auf das Lesen von Parkettdateien werden Partitionsspalten numerischer Datentypen, Datums-,
Zeitstempel- und Stringtypen automatisch abgeleitet
Frage 11 Optionen:
Wahr
Falsch

Frage 12 (1 Punkt)
In RRD befassen wir uns mit Struktur- und Halbstrukturdaten, aber in Data Frame befassen wir uns mit
Strukturdaten.
Frage 12 Optionen:
Wahr
Falsch

Frage 13 (1 Punkt)
createOrReplaceTempView überschreibt die vorhandene Ansicht, falls vorhanden
Frage 13 Optionen:
Wahr
Falsch

Frage 14 (1 Punkt)
Eine einfachere Möglichkeit, verschiedene Arten von Daten zu laden, außer Parkett, ist die Verwendung der
folgenden:
val salesRecords = spark.read. .format("csv")
.load("/Users/hadoop-user/Documents/SalesJan2009.csv") .Die Formate sind Datenquellen und sollten mit
ihren vollqualifizierten Namen wie "org.apache.spark.sql.parquet" bezeichnet werden
Frage 14 Optionen:
Wahr
Falsch

Frage 15 (2 Punkte)
Das Write-Objekt wird aus dem Session-Objekt (Spark-Session) abgeleitet. Das Reader-Objekt wird aus dem
Dataframe abgeleitet

Frage 15 Optionen:
Wahr
Falsch

Frage 16 (1 Punkt)
val salesRecords = spark.read.load("/Benutzer/hadoop-Benutzer/Dokumente/SalesJan2009.parkett")
Dies lädt standardmäßig eine Parkettdatei. Die Standardoption wird durch die Konfigurationseigenschaft
"spark.sql.sources" angegeben
Frage 16 Optionen:
Wahr
Falsch

Frage 17 (1 Punkt)
Wir verwenden SQL immer im Dataframe
Frage 17 Optionen:
Wahr
Falsch

Frage 18 (2 Punkte)
In Bezug auf das Lesen von Parkettdateien werden die Spalten automatisch abgeleitet, da die Eigenschaft
"spark.sql.sources.partitionColumnTypeInference.enabled" standardmäßig auf false gesetzt ist. Wenn die
obige Eigenschaft auf true gesetzt ist, werden alle Partitionsspalten als String gelesen
Frage 18 Optionen:
Wahr
Falsch

Frage 19 (1 Punkt)
Wir verwenden die Filterfunktion, wenn es sich um eine komplizierte Bedingung handelt, da Sie kein typisches
SQL-Zeug verwenden können. Deshalb schreiben wir die Filterfunktion. Die Funktion besteht darin, die
bestimmte Zeile zu übergeben und dann Zeile.(Methoden), um den Wert der bestimmten Zeile zu erhalten
Frage 19 Optionen:
Wahr
Falsch

Frage 20 (1 Punkt)
In Spark SQL ist die Verarbeitungseinheit der Datensatz oder Data Frame
Frage 20 Optionen:
Wahr
Falsch

Frage 21 (1 Punkt)
Datensatz ist eine Sammlung von Datensätzen. Jeder Datensatz in der Hive-Tabelle ist eine Zeile. Datensatz ist
eine resilienzverteilte Sammlung von Zeilen, wobei Zeile ein Objekt ist. row ist Scala-Klasse
Frage 21 Optionen:
Wahr
Falsch

...

[Nachricht abgeschnitten] Gesamte Nachricht anzeigen


ReplyForward

Das könnte Ihnen auch gefallen