Sie sind auf Seite 1von 31

FrageNr #Antw.

Frage
1
4
Bitte bewerten Sie die Aussagen zur BI-Datenbereitstellung als falsch oder richtig.

Die Datenextraktion und Bereitstellung der Daten aus Quellsystemen erfolgt ber
DataSources.
Die Extrakstruktur enthlt die Menge der Felder, die von einem Extraktor im
Quellystem fr den Datenladeprozess angeboten werden.
Die Extraktion und bertragung der Daten erfolgt in der Regel auf Anforderung des BI
(Pull).
Durch Replikation wird die DataSource mit ihren relevanten Eigenschaften im BI
bekannt gemacht.
0
Richtige oder falsche Antworten zum ETL-Prozess?
Das InfoPackage ldt Daten immer in die PSA
Die Transferstruktur enthlt mindestens die Felder der Extraktstruktur und 3
zustzliche technische Felder
Das Customizing der Extraktoren fr das Quellsystem ECC erfolgt durch direkten
Aufruf der Transaktion SBIW im BI-System
Ein Datentransferprozess (DTP) kann Daten aus der PSA in den Cube laden. Mehrere
DTPs knnen auf die gleich PSA zugreifen, dabei sind unterschiedliche
Transformationen mglich
0
Welche Aussagen zum Datenfluss sind richtig?
Zu jeder DataSource gehren Metadaten, die die zu extrahierenden Daten
beschreiben und angeben, wie die Extraktion durchgefhrt werden kann.
Die InfoPackage wird nur fr den Ladeprozess in die PSA bentigt.
Das Transformationskonzept von SAP Netweaver 2004s bentigt bertragungs- u.
Fortschreibungsregel.
Der DTP kann durch Prozessketten definiert werden.
0

Welche Quellsysteme gibt es.


SAP-Systeme
BI-Systeme
relationale o. mulitdimensionale Quellen
Fremdsysteme
0

Bewerten Sie folgende Aussagen zum Thema Quellsystem als richtig oder falsch
Der Datentransfer zwischen InfoProvidern innerhalb eines BI-Systems erfolgt durch
einen Datentransferprozess.
Der Quellsystemtyp wird im Bereich Quellsysteme der Data Warehousing Workbench
festgelegt.
Quellsystemtyp ist z.B. Web Services
Der fr Daten-Transfer-Szenarien zwischen getrennten BI-Systemen bentigte
Quellsystemtyp wird von SAP standardmig angelegt. (durch einen Link des
jeweiligen BI-Systems auf sich selbst )
0

ZVF350

Als Quellsysteme werden alle Systeme bezeichnet, die Daten fr BI bereitstellen.


Zwischen welchen Quellsystemen kann man unterscheiden?
Flachdateien, bei denen Metadaten manuell in BI gepflegt werden und Daten ber
eine Dateischnittstelle in das BI- System bertragen werden.
Multidimensionale Quellen, die mit Hilfe von S- API an die DataSource gekoppelt
werden.

1 - 31

FrageNr #Antw. Frage


Fremdsysteme, bei denen der Daten- und Metadatentransfer ber Staging BAPIs
erfolgt.
BI- Systeme
0
7

Transformationsprozess: welche Aussage treffen zu:


Mit dem Transformationsprozess knnen Sie semantische Schlssel fr die
Aggregation definieren.
Gem Transformationskonzept von SAP NetWeaver 2004s bentigen wir in einem
Groteil der Flle nur noch eine einzige Transformationsregel.
InfoSources sind obligatorisch.
Mit Hilfe der Transformation knnen sie zustzliche Funktionen wie die
Mengenumrechnung anwenden und haben die Mglcihkeit zum Anlegen einer
Endroutine oder einer Expertenroutine.

Bewerten sie nachfolgende Aussagen zur Datenbereitstellung:


Eine InfoSource ist eine nichtpersistente, aus InfoObjects bestehende Struktur zur
Verknpfung zweier Transformationen.
Der Datentransferprozess steuert die Verteilung der Daten innerhalb BI.
Die Transformationsregel bearbeiten Sie ber den ABAP-Editor.
Delta-Verfahren fr verschiedene Ziele knnen nicht durch den Datentransferprozess
getrennt werden

Welche Einstellungsoptionen zum Datentransferprozess sind auf der Registerkarte


"Verbuchung" mglich ?
Keine Verbuchung,kein Reporting
Keine Verbuchung gltiger Stze, Reporting mglich
Verbuchung gltiger Stze, Reporting mglich
Keine Verbuchung gltiger Stze, Reporting nicht mglich

0
10

Welche Aussage(n) zum Prozess der Datenbereitstellung im BI sind/ist richtig ?


Die Datasource umfasst eine Menge von Feldern,die die Daten fr den Datentransfer
an BI zur Verfgung stellt
Das Infopackage steuert den Transfer der Daten
Fremdsysteme knnen nicht als Quellsysteme genutzt werden
Zu jeder Datasource gehren Metadaten , die die zu extrahierenden Daten
beschreiben
0

11

Welche Aussagen zur Datenbereitstellung in BI sind richtig?


Die Datenbereitstellung zhlt zu den Data-Warehouse-Prozessen in BI.
Das BI-System kann Zielsystem aber auch Quellsystem im Rahmen des
Datentransfers sein.
Die von SAP vordefinierten DataSources fr SAP-Quellsysteme drfen nur fr
Schulungszwecke verwendet werden.
Der Datentransfer zwischen InfoProvidern innerhalb eines BI-Systems erfolgt durch
einen Datentransferprozess.

12

Welche Aussagen treffen fr die Fehlerbehandlung bei der Datenbereitstellung zu?

Der Fehlerstack ist eine Request-basierte Tabelle, in die die fehlerhaften Datenstze
aus dem Infopackage geschrieben werden.
Wenn ein Request in einem DSO gelscht wird, werden auch die zugehrigen
Datenstze im Fehlerstack gelscht.

ZVF350

2 - 31

FrageNr #Antw. Frage


Mgliche Reaktion auf fehlerhafte Datenstze ist: "Keine Verbuchung, kein Reporting
(Request rot)"
Auf der Registerkarte "Verbuchung" kann ein Fehler-DTP angelegt werden, solange
der Datentransferproze noch nicht aktiviert ist.
0
13

In folgenden Fllen ist es nicht mglich, ein Merkmal-InfoObject als InfoSource mit
direkter Fortschreibung zu verwenden:
Es handelt sich um das Merkmal-InfoObjekt "Quellsystem-ID" (0SOURSYSTEM)
Es handelt sich um ein Einheiten-InfoObject (z.B: 0UNIT, 0CURRENCY)
Das InfoObject verfgt weder ber Attribute, Texte noch Hierarchien
Alle Antworten sind falsch
0

14

Folgende Aussagen stimmen nicht:


Im Kontextmen des Quellsystems innerhalb der DWWB kann man ber 'Customizing
Extraktoren' in das Quellsystem abspringen. Voraussetzung: ein Dialoguser muss
angelegt sein.Andernfalls muss man sich in das Quellsystem einloggen und in die
SBIW gehen.
Die PSA hat dieselbe Struktur wie die Transferstruktur bis auf drei Felder fr:
Request-ID, -paket, Satz.
Der Ladevorgang in ein Datenziel ber die DB-Schnittstelle ist ein Austausch von
Daten zwischen der Extraktstruktur im Quellsystem und der Transferstruktur im Ziel
System.
Eine InfoSource ist eine nicht persistente, aus InfoObjects bestehende Struktur zur
Verknpfung zweier Transformationen.
0

15

16

Zu den Metadaten einer DataSourcegehren aus der Sicht des jeweiligen


Quellsystems z.B.:
Anwendungskomponenten
Extraktionsmethode und Extraktor
Deltaverfahren
Transfermethode
0
Bitte bewerten Sie die Aussagen zur Transformation bei der Datenbereitstellung in BI:
Eine Transformation konvertiert die Felder einer Quelle in das Format des Ziels.
Eine Transformation besteht aus mindestens einer Transformationsregel.
Mit Hilfe von Routinen knnen Sie komplexe Transformationsregeln definieren.
Es gibt verschiedene Arten von Routinen in der Transformation: Startroutine, Routine
fr Kennzahlen oder Merkmale, Endroutine und Expertenroutine.
0

17

Richtige Aussagen zum ETL-Prozess sind:


In 2004s (7.0) gengt meistens eine Transformationsregel
Fortschreibungsregeln beziehen sich auf das Quellsystem
Bei 2 hintereinandergeschalteten Transformationen ist die Zwischenschaltung einer
InfoSource obligatorisch
bertragungsregeln werden bezglich des Datenziels definiert
0

18

ZVF350

Welche Aussagen zum BI Content sind richtig?

3 - 31

FrageNr #Antw. Frage


Nachdem der BI Content im BI-System installiert wurde, stehen die Objekte zunchst
in der D(elivered)-Version zur Verfgung.
Mit der bernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert
und in eine A(ctive)-Version bertragen.
Die D-Version wird nach der bertragung gelscht.
Wenn ein aktiviertes BI Content-Objekt verndert wird, wird eine neue, die M(odified)Version generiert.
0
19
4
Welches sind vorkonfigurierte Objekte des BI Content?
Rollen
InfoSources
bertragungsregeln
DataSources
0
20
3
Sind folgende Aussagen zu InfoSource in 7.0 zutreffend ?
Eine Infosource ist eine aus InfoObjects bestehende Struktur zur Verknpfung zweier
Transformationen.
Eine InfoSource beschreibt die Menge aller verfgbaren Daten zu einem
Geschftsvorfall oder einer Art von Geschftsvorfllen.
Eine InfoSource verwenden Sie immer dann, wenn Sie im Datenfluss zwei (oder
mehrere) Transformationen hintereinander durchfhren wollen, ohne dass die Daten
zustzlich abgelegt werden sollen.
Die Daten einer InfoSource werden immer ber eine Transformation in einen
InfoProvider fortgeschrieben.
0
21

Erkennen Sie Unterscheidungsmerkmale der Transfermethoden


IDoc- Maximale Anzahl der Felder pro Datensatz = 255
PSA- Maximale Datensatzlnge 1962 Byte
PSA - nutzt Daten IDocs
IDoc- nutzt Daten IDocs

22

Der bernehmeprozess von BI Content-Objekten lsst sich in drei Schritten


beschreiben:
Selektionsebene auswhlen
bernahme der BI Content-Infoset
BI Content-Objekte bernehmen
BI Content-Objekte mit Gruppierungsverfahren auswhlen

23

0
Bewerten Sie folgende Aussagen zum Datentransfer unter BI 3.x ....
Man unterscheidet zwischen einer Infosource 3.x mit direkter und mit flexibler
Fortschreibung.
Whrend 3.x Infosources mit dir. Fortschr. fr Bewegungsdaten gedacht sind, werden
3.x Infosources mit flex. Fortschr. fr Hierarchien verwendet die unter BI 7.0 noch
nicht fortgeschrieben werden knnen.
Hierarchien knnen nicht mittels einer InfoSource 3.x mit direkter Fortschreibung
fortgeschrieben werden.
Eine InfoSource 3.x ist eine Menge logisch zusammengehriger InfoObjects.
0

24

ZVF350

Welche Funktionen und welche Mglichkeiten hat, bzw. bietet, die Infosource im
Datentransferprozess?
Konsolidierung,Bereinigung und Integration von Daten

4 - 31

FrageNr #Antw. Frage


in BW 3.5 Transformation der Daten unter Verwendung von bertragungs- und
Fortschreibungsregeln
Infosources mssen, unabhngig von der Anzahl der Transformationen, verwendet
werden
In 3.x ist die Infosource direkt mit der PSA verknpft
0
25

Welche Aussage zuTransfermethoden sind richtig?


In der Version 3.x kann zwischen PSA und IDoc gewhlt werden
In der Version 7.0 ist PSA obligatorisch .
Bei der Transfermethode PSA werden IDocs grundstzlich nicht bentigt
Die Transfermethode bestimmt , wie die Daten bertragen werden

26

Welche Aussage(n) ist/ sind richtig?


Bei der Transformation legen Sie die Zuordnung der Felder aus dem InfoObject zu
DataSource fest.
Zielobjekte knnen BI-Objekte InfoSource, InfoObject und InfoSet sein.
Eine InfoSource ist lt. SAP eine persistente, aus InfoObjects bestehende Struktur zur
Verknpfung zweier Transformationen.
Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt.

27

Welche Aussagen zum Business Content sind richtig?


Der sofort einsatzbereite Business Content von SAP NetWeaver 2004s umfasst
beispielsweise Portal Content und BI Content.
BI Content wird als Add-On zu BI ausgeliefert.
Die BI Content-Objekte werden in der Version A (ausgeliefert) von SAP bereitgestellt
und erhalten die Version M (modifiziert), wenn sie verndert werden.

Der technische Name aller Demo-Content-Objekte beginnt mit 0D_


0
28

Welche Aussagen treffen auf die Transformation nicht zu?


Bei der Transformation werden die Zielfelder in das Quellformat umgewandelt.
Der Transformationsprozess konsolidiert, bereinigt und integriert Daten
Eine Transformation wird zwischen dem Quellsystem (z.B. Flatfile) und dem Ziel
angelegt.
Das Mapping ist eine Transformationregel aus BI 3.5 und wird in Version 7.0
vollstndig vom System bernommen.
0

29

Welche Aussagen zum Datenfluss sind richtig?


Transformation legen die Zuordnung der Felder aus der DataSource zu InfoObjects
aus BI fest
Eine Transformation besteht aus einer, mehreren oder keiner Transformationsregel
Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Die
Quellobjekte DataSource, InfoSource, DSO, InfoCube, InfoObject, InfoSet stehen zur
Verfgung
Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Die
Zielobjekte InfoSource, DSO, InfoCube, InfoObject, InfoSet stehen zur Verfgung
0

ZVF350

5 - 31

FrageNr #Antw. Frage


30
3
Bei der bernahme von BI Content-Objekten haben Sie die Mglichkeit, Quellsysteme
zuzuordnen. Mit dieser Zuordnung legen Sie fest, in welchen Quellsystemen diese
Objekte fr die bername gesammelt werden sollen. Wenn Sie kein Quellsystem
auswhlen, werden automatisch alle Quellsysteme zugeordnet. Welche der folgenden
Optionen fr das bernehmen sind in Netweaver 2004s nicht auswhlbar?
Datenfluss danach
bernehmen im Hintergrund
Datenfluss davor
Datenfluss davor und danach
31

0
Der Funktionsbereich Modellierung besteht aus verschiedenen Bildbereichen. Neben
Men-, Titel- und Statusleiste enthlt die Modellierung die folgenden vier Bildbereiche:
Die Drucktastenleiste der Modellierung
Das Navigationsfenster im linken Bildbereich
Die Sicht auf den ausgewhlten Objektbaum im rechten bzw. bei geffneter
Anwendung mittleren Bildbereich
Die geffnete Anwendung im rechten Bildbereich
0

32

Fr den Direktzugriff auf Daten in BI-Quellsystemen ohne Extraktion stehen folgende


Typen von VirtualProvidern zur Verfgung.
VirtualProvider auf Datentransferprozess basierend
VirtualProvider mit BAPIs
VirtualProvider mit Funktionsbaustein
Stammdatentragendes MerkmalInfoObject als VirtualProvider

33

Richtige Aussagen zum SAP BI sind:


Von einer PSA als interner Quelle knnen Daten per Mapping ins Datenziel InfoSet
geschrieben werden
In BI 3.5 werden bei Direktzugriff auf Daten des Quellsystems die Stammdaten im BI
automatisch aktualisiert
In BI 7.0 gibt es Virtual Provider auch fr stammdatentragende Merkmale
Bei Direktzugriff sollten Navigationsattribute vermieden werden

0
34

Welche Extraktionsmethoden stehen bei Verwendung generischer DataSources zur


Verfgung?
Funktionsbausteine
InfoSet (SAP Query)
Query-Views
DB-Tabellen

35

Was gehrt zum Umfang des SAP Service API


Konfiguration von Quellsystemverbindungen
Customizing der DataSources
Replikation der DataSources
Testtool fr die Datenextraktion

36

Der Dmon steuert und berwacht die bertragungsprozesse fr Real-Time Data


Acquisition. In Abhngigkeit vom verwendeten Szenario fhrt der Dmon folgende
Aufgaben aus:

Wenn die Datenbertragung aus einem SAP-Quellsystem erfolgt, startet er mit einem
InfoPackage die Datenbertragung ins PSA

ZVF350

6 - 31

FrageNr #Antw. Frage


Er schliet und ffnet Requests, wenn die festgelegten Schwellenwerte berschritten
werden.
Er startet mit einem Datentransferprozess die Weiterverbuchung der Daten in das
DataStore-Objekt
Er startet die Folgeprozessketten
0
37

Bei den Direktzugriffsszenarien werden verschiedene VirtualProvider eingesetzt!


Welche knnen zum Einsatz gebracht werden?
VirtualProvider auf Basis von DataStore- Objekten.
VirtualProvider mit BAPIs.
VirtualProvider mit Funktionsbausteinen.
VirtualProvider auf Basis von Datentransferprozessen.
0

38

Welche Aussagen zum Daemon (RDA) sind richtig?


In BI System werden die Daten mit einem zugeordneten Daemon eingeplant und in
regelmigen Zeitabstnden ausgefhrt.
Bei einigen Datentransferprozessen fr Real-Time DAta Acquisition bernimmt der
Daemon auch die weiterverbuchung der Daten in DataStore-Objekte aus der PSA.
Die Query zeigt den Zeitpunkt an, zu dem die Daten zuletzt durch einen Daemonlauf
aktualisiert wurden.
Es wird von den Queries der Zeitpunkt des letzten Daemonlaufs angezeigt, selbst
wenn keine neuen Daten verbucht wurden.
0

39

Welche Aussagen zur ServiceAPI sind richtig?


Zur ServiceAPI gehren z.B. Replikation von DataSources, VirtualProviderTechnology und ein Test-Tool fr die Datenextraktion.
VirtualProvider knnen aus allen DataSources mit Daten beliefert werden.
Mit einer Delta-Queue knnen geringere Ausfallzeiten realisiert werden wenn die
Initialisierungslufe auf gespiegelten Systemen durchgefhrt werden.
Generische DataSources erlauben nur die Extraktion von Daten, die dem BI-System
mit den DataSources des Business Content oder mit anwenderspezifischen
DataSources zur Verfgung gestellt werden.
0

40

Der Datentransferprozess beschreibt bzw. steuert die Verteilung der Daten innerhalb
eines BI-Systems, prfen sie nach folgende Aussagen auf Ihre Richtigkeit!
ab Netweaver 2004 s knnen Transformationen als Synonym fr DTP innerhalb von
BI bezeichnet werden!
die InfoSource wird ab BI 7.0 nicht mehr bentigt
das Info Package steuert den Datentransfer und ist Bestandteil des DTP innerhalb
von BI
fehlerhafte Datenstze innerhalb eines Datentransferprozesses fhren immer zu
einem Abbruch des Prozesses, eine Fortschreibung ist nicht mglich
0

41

Welche Aussagen zum Virtual Provider auf Basis von Transferprozessen sind richtig:
Stammdaten und Hierarchien werden direkt vom Quellsystem gelesen
Eine Schnittstellenprogrammierung im Quellsystem ist optional
Falls in den Transformationsregeln eine Konstante angegeben worden ist, werden die
Daten nicht bertragen wenn diese Konstante nicht erfllt ist

ZVF350

7 - 31

FrageNr #Antw. Frage


Da keine Einschrnkung der Datenmenge besteht, bewirkt das Lesen der Daten im
Quellsystem, auch mit geeigneten Aggregaten, einen geringere Performance
0
42

Direktzugriff auf Daten des Quellsystems kann mit Hilfe von VirtualProvidern mglich
gemacht werden. Welche Arten werden verwendet?
VirtualProvider auf Basis von DTP
VirtualProvider fr Schreib-und Lesezugriff
VirtualProvider mit BAPIs
VirtualProvider mit Funktionsbausteinen

43

0
Welche Aussage(n) zu Real-Time Data Acquisition (RDA) ist/sind richtig?
Es existieren drei grundlegende Szenarien fr RDA: via Service-API, via Web Service
und via Open Source.
In BI werden fr RDA spezielle InfoPackages angelegt.
Ein sogenannter Dmon (als Hintergrundprozess) informiert das Service-API im
Zielsystem des Datentransfers, wenn die Daten erfolgreich verbucht sind.
Fr RDA via Service API wird eine permanente RFC-Verbindung zwischen dem
jeweiligen Quellsystem und BI bentigt.
0

44

Welche DataSource - Typen untersttzen den Direktzugriff mit Hilfe von virtuellen
Providern?
SAP - CRM
.csv - Datei
UD-Connect ist eine Schnittstelle und kein DataSource - Typ
Web-Service
0

45

Welche Aussagen zum Thema Real-Time Data Acquisition RDA sind richtig?
die Daten werden ber ein InfoPackage fr RDA in PSA bertragen
die Daten werden ber einen Datentransferprozess fr RDA in ein DSO bertragen
der Prozess der Datenbewegung wird vom System-Dmon initiiert
Ein Dmon ist ein Hintergrundprozess, der in regelmigen Abstnden die ihm
zugeordneten InfoPackages und DTP verarbeitet
0

46

Welche der Aussagen zu Direktzugriffen sind unkorrekt?


VirtualProvider mit Funktionsbausteinen ermglichen fr Daten den Lese- UND
Schreibzugriff.
VirtualProvider auf Basis von Datentransferprozessen ermglichen fr Daten den
Lese- UND Schreibzugriff.
VirtualProvider mit BAPIs ermglichen fr Daten den Lese- UND Schreibzugriff.
Man verwendet VirtualProvider mit einem benutzerdefinierten Funktionsbaustein,
wenn Daten aus Nicht-BI-Datenquellen in BI angezeigt werden sollen, ohne die
Datenbestnde in die BI-Strukturen bernehmen zu mssen.

47

0
Wie werden Daten zwischen InfoProvidern innerhalb eines BI-Systems ausgetauscht?
ein Austausch ist nicht mglich

ZVF350

8 - 31

FrageNr #Antw. Frage


mittels der Transportstruktur
mit einem Datentransferprozess (DTP)
durch Replikation
0
48

Die Transaktion "LBWE" startet


den Listgenerator fr Business-Circular Competences
das Logistik Extraktstrukturen Customizing Cockpit
die Lokale Einheitenumrechnung fr Custom Cubes
die Logic Business Extraction Central Component

49

Welche Aussage zur Logistik-Datenextraktion ist richtig oder falsch?


Die Extraktstruktur und die DataSource werden im Customizing Cockpit gepflegt.

Die Delta-Queue besteht aus 3 Tabellen.


Als Verbuchungsmethode steht u. A. die unserialisierte V3-Verbuchung zur Vefgung.

50

Bei der LO-Extraktion von Bewegungsdaten ist zunchst ein so genannter Neuaufbau
der Extraktion notwendig.
0
Richtige Aussagen zur Logistik-Datenextraktion sind:
Die Delta-Queue besteht aus 3 Tabellen, hnlich wie ein Standard-DSO-Objekt
Neuaufbautabellen werden fr das Delta-Verfahren nie verwendet, da sie zu viel
Performance kosten und deshalb durch die V3-Verbuchung ersetzt
Ein kundeneigenes R/3 mit Vertriebskomponente enthlt bereits ein LIS-System fr
Auswertungen
Die modernere Mglichkeit der Auswertung (LO) erfolgt ber Objekte aus dem BIContent. Diese enthalten im technischen Namen die Zeichenfolge LIS.
0

51

Verbuchungs-Modus im Logistik Extraktstrukturen Customizing Cockpit: Auf welche


Art/en knnen die anfallenden Daten bei Delta-Buchungen verbucht werden?
Serialisierte V1-Verbuchung
Unserialisiert V3-Verbuchung
Direct delta
Queued delta
0

52

Welche VerbuchungsModi gibt es?


Serialisierte V3-Verbuchung
Direct delta
Queued delta
Unserialisiert V3-Verbuchung

53

Sind folgende Aussagen zur Datenbereitstellung ber das Service -API richtig
oder ....?
Unserialierte V3-Verbuchung stellt nicht die Serialisierung der Belegdaten sicher.

Unserialierte V3-Verbuchung ist ein Verbuchungsmodus aus der Logistik-Extraktion


Unserialierte V3-Verbuchung unterscheidet sich nicht von der "normalen" V3Verbuchung

ZVF350

9 - 31

FrageNr #Antw. Frage


Bei der "Unserialierte V3-Verbuchung" verbleiben die Daten in den
Verbuchungstabellen bis zum Auslesen und der Verarbeitung durch den
Verbuchungssammellauf.
0
54

Mixed Mode, Bewerten Sie folgende Aussagen!


InfoSet ersetzt ab Release 4.6C die bis dahin gltige Bezeichnung "Sachgebiet"
Nicht alle Extraktstrukturen des Logistik Customizing Cockpit knnen gepflegt werden!
Ein Delta Queue besteht aus 2 Objekten und damit mindestens aus 2 Tabellen
Die Delta - Initialisierung des Bewegungsdatenbestandes kann auch auf
Organisationselementen, wie Verkaufsorganisation oder Buchungskreis aufbauen.
0

55

Was muss bei der Definition eines DB-Views fr die Extraktion beachtet werden.
Mandant muss erstes Datenfeld sein
Feld Sprache muss als Schlssel definiert sein, mit der Domne SPRAS, falls Texte
sprachabhngig hintergelegt sind.
Wenn an das Schlsselfeld Merkmale geklammert wurden, mssen diese als
Schlssel aufgelistet werden.
Bei Zeitabhngigkeit von Inhalten des Views mssen die Felder DATETO und
DATEFROM angegeben werden.
0

56

Welche Aussagen zum Logistic Extraktion Customizing Cockpit sind richtig?


Es gibt folgende Funktionen: Pflege von Extraktstrukturen, Pflege von DataSources,
Pflege von InfoCubes, Aktivieren der Fortschreibung.
Zu jeder im OLTP-System zur Verfgung stehenden Extraktstruktur ist eine
DataSource vorhanden.
Wenn eine DataSource zum zweiten Mal repliziert werden muss, sollte nur die
betreffende DataSource repliziert werden.
Ein Full-Upload wird nicht wie eine Delta-Initialisierung ber die Neuaufbautabellen
durchgefhrt.
0

57

Datentransferprozesse werden nach verschiedenen Arten unterschieden: Bewerten


sie nachfolgende Aussagen:
Fr Virtual Provider besteht die Option der RealTimeDataAquisation als DTP zur
Auswahl!
Bei der RealTimeData Aqusiation werden die Daten in ein DataStore Objekt
bertragen werden, werden die Daten persistent im BI abgelegt
Voraussetzung fr die bertragung von Daten in die PSA bei der RealTimeData
Aquisation sind speziell dafr angelegte InfoPackages!
Die Mglichkeit des Direktzugriffs besteht fr Bewegungsdaten und Stammdaten

58

Welche Aussagen zur unserialisierten V3 sind richtig bzw. falsch?


Die Extraktionsdaten werden mit Hilfe eines V3-Verbuchungsbausteins in die
Verbuchungstabellen geschrieben.
Die Daten in den Verbuchungstabellen knnen ber einen Verbuchunglauf hinaus
ausgelesen und verarbeitet werden

ZVF350

10 - 31

FrageNr #Antw. Frage


Die Daten werden im Verbuchungssammellauf ohne Bercksichtigung der
Reihenfolge aus den verbuchungstabellen gelesen
Die unserialisierte V3 Verbuchung stellt nicht die Serialisierung der Belegdaten sicher
0
59

Welche Aussagen zur Datenextraktion aus einem R/3-System sind richtig?


Der Datenflu erfolgt entweder ber die Delta-Queue oder ber die
Neuaufbautabelle .
Die Neuaufbautabelle wird nur beim Full-Upload verwendet .
Die Delta-Queue besteht aus bis zu drei Tabellen.
Bei der Pflege der Extraktstruktur knnen u.a Einstellungen zum Verbuchungsmodus
vorgenommen werden
0

60

Bei dem Verbuchungsmodus Delta queued...


werden die Extraktionsdaten mit jeder Belegbuchung direkt in die Delta-Queue
bertragen.
werden die Extraktionsdaten der betroffenen Anwendung nicht in den
Verbuchungsdaten, sondern in einer Extraktionsqueue gesammelt.
entfllt die zustzliche berwachung der Verbuchungsdaten oder Extraktionsqueue.
ist die Extraktion unabhngig von der V2-Verbuchung.
0

61

Richtig oder Falsch?


Mittels Delta Queue ermittelt das Service API den Fortschreibungsmodus der
Neuaufbautabelle.
SAP empfiehlt die gesamten DataSources eines Quellsystems zu replizieren, um
Inkonsistenzen zu vermeiden.
Der Begriff 'Kommunikationsstruktur' wird von SAP einzig im Zusammenhang mit
InfoSourcen verwendet.
Einzelne DataSources knnen ber den entsprechenden Eintrag im Kontextmen
'Metadaten replizieren' der betreffenden DataSource repliziert werden.

62

Benennen Sie die Vorteile und Egenschaften des "Delta direkt" Verfahrens
Durch das Schreiben in die " Delta-Queue" innerhalb des V1-Verbuchungsprozesses
ist die belegweise Serialisierung ber das Enqueue-Konzept fr Anwendungen
sichergestellt.

Fr Kunden mit geringem Belegaufkommenist das Verfahren dann zu empfehlen,


wenn im Initialisierungsprozess eine Ausfallzeit whrend Neuaufbau- und DeltaInitialisierungs-Request Mglich ist. (z.B. am Wochenende)
Die Extraktion ist abhngig von der V2-Verbuchung.
Eine zustzliche berwachung der Verbuchungsdaten oder der ExtraktionsQueue
entfllt.
0
63

Auf welche Arten knnen anfallende Daten bei Delta-Buchungen verbucht werden?
serialisierte V3-Verbuchung
Direct Delta
unserialisierte V3-Verbuchung
Queued Delta
0

ZVF350

11 - 31

FrageNr #Antw. Frage


64
4
Wann sollten die Werkzeuge fr die generische Datenextraktion zum Anlegen einer
DataSource eingesetzt werden?
Der BI Content stellt keine DataSOurce fr Ihre Anwendung zur Verfgung
Fr den BI Content sind zustzliche Erweiterungen erforderlich, fr die wiederum
Daten bentigt werden, die nicht von BI bereitgestellt werden
Die Anwendung stellt keine eigene generische Datenextraktion (Methode) zur
Verfgung
Sie fllen eigene Tabellen durch eigene Programme im SAP System
0
65

Welche Aussagen sind fr die Datenextraktion als Teil des ETL-Prozesses richtig und
relevant?
Aus der Kommunikationsstruktur knnen die Daten in einen InfoCube verbucht
werden.
Es gibt vier Verbuchungsmethoden. Eine davon ist "Delta direkt".
Die Extraktstruktur wird mit den zugeordneten Kommunikationsstrukturen gefllt.
Das Replikat der Extraktstruktur wird durch Aktivierung zur Transferstruktur.
0

66

Bitte bewerten Sie die folgenden Aussagen zum Delta-Management.


Der Satztyp (Record Mode) beschreibt, welche Art von nderung ein Datensatz
enthlt.
Die Tabelle RODELTAM beschreibt die Eigenschaften des Deltaverfahrens.
Der Delta-Typ beschreibt die Art und Weise der Delta-Bereitstellung innerhalb eines
Deltaverfahrens.
Bei einem Repeat Delta-Update werden die falsch oder unvollstndig geladenen
Daten der fehlerhaften Delta-Anforderung sowie die seither angefallenen Daten
extrahiert.
0

67

68

ber das Deltaverfahren treffen folgende Aussagen zu:


Zur Initialisierung werden wie beim full upload grundstzlich Neuaufbautabellen
angelegt
Die Early-Delta-Initialisierung vermeidet eine verbuchungsfreie Zeit
In der verbuchungsfreien Zeit knnen Buchungen des Typs V1 nicht durchgefhrt
werden
In der verbuchungsfreien Zeit werden Buchungen des Typs V1 automatisch in die V3Queue gestellt
0
Bei folgende Delta-Typen wird die Delta-Queue nie verwendet:
A: Die DataSource ermittelt das Delta mit ALE-nderungsprotokoll.
D: Delta-Update per Push direkt zur DeltaQueue.
E: Die DataSource ermittelt das Delta auf Anforderung durch den Extraktor.
F: Die Delta-Datenstze werden per Flat File geladen.
0

69

Sind folgende Aussagen zum Deltatyp richtig?


Deltatyp "E" = Der Extraktor liefert das Delta der DataSource
Deltatyp "D" = Das Delta wird durch die Anwendung bereitgestellt
Deltatyp "E" = "Pulled Delta" Modus
Deltatyp "D" = "Pushed Delta" Mode
0

70

ZVF350

Folgende Abhngigkeiten sind bei der Nutzung von deltafhigen DataSources in der
Modellierung eines Datenflusses zu beachten.

12 - 31

FrageNr #Antw. Frage


Delete- Images knnen nur von einem DataStore- Objekt verarbeitet werden.
InfoCubes knnen Lschungen verarbeiten.
Reverse- Images knnen von allen Zielen verarbeitet werden.
Wenn die DataSource sowohl das Before-Image als auch das After- Image sendet,
kann diese Kombination in einem beliebigen InfoCube oder ein beliebiges DataStoreObjekt geladen werden.
Handelt es sich bei den Daten, die das BI System fllen um ein additives Image,
knnen die Daten in einen InfoCube oder DataStore- Objekt geschrieben werden.
0
71

Welche Aussagen sind Richtig?


Vor der Initialisierung knnen dynamische Daten per Full-Update bertragen werden.
Die Ermittlung der Eigenschaften des Delta-Verfahrens findet in der Tabelle
RODELTAM statt.
Die Ermittlung des Delta Verfahrens zur Data Source findet in der Tabelle
RSOLTPSOURCE oder ROOSOURCE oder RSDS statt.
Die neuen und genderten werden von der Delta-Queue an das BI-System
bertragen.
0

72

Welche Aussagen zum Delta-Management sind richtig?


Ein Delta-Update kann adhoc, also ohne Vorarbeiten gestartet werden.
Eine Delta-Queue zur DataSource zieht die neuen bzw. genderten Daten in den
gleichen Ablagebereich hinein.
Durch das vorherige bertragen von historischen Daten per Full-Update kann das
Datenvolumen verringert werden.
Wenn ein Datenladevorgang scheitert und der BI-Monitor eine rote Ampel zeigt, kann
die vorangegangene Delta-bertragung wiederholt werden
0

73

Das Deltaverfahren ist eine Eigenschaft der DataSource, der Deltatyp wiederum eine
Eigenschaft des Deltaverfahrens, bewerten sie folgende Aussagen bezogen auf SAP
Quellsysteme!
Der Extraktor liefert das Delta der DataSource "Pushed Delta"
Das Delta kann durch die Anwendung bereitgestellt werden "Pulled Delta"
Die zur Data Source gehrende Delta-Queue wird mit Erstellung der DataSource im
Quellsystem erzeugt
Zwingende Voraussetzung innerhalb des Deltaverfahrens fr die Buchung neuer bzw.
genderter Datenstze in die Delta Queue ist die Initialisierung des Deltaverfahrens
0

74

Welche Aussage zu Delta Verfahren fr SAP Quellsysteme ist richtig?


Ein Before Image liefert den Status vor der nderung mit einem Minuszeichen
Der Extraktor liefert additive Deltas die requestweise serialisiert werden
Die Bildung von Deltas mit Before Image erlaubt es die Daten direkt in die Delta
Queue zu schreiben und packetweise zu serialisieren
Deltas mit After Image lassen keine direkte Fortschreibung in einen Infocube zu
0

75

ZVF350

Welche Aussagen zum Deltamanegement sind richtig?


Deltamanagement bezeichnet die Fhigkeit , nur neue und genderte Datenstze
einer separaten Datenanforderung in das BI-System zu extrahieren

13 - 31

FrageNr #Antw. Frage


Bei der Delta-Queu handelt es sich um eine Datenablage fr neue und genderte
Datenstze zu einer Datasource
Die Delta-Queu ist eine Funktion des BAPI
Die Tabelle RODELTAM definiert die Eigenschaften des Deltaverfahrens zu einer
Datasource
0
76

Deltatypen
D: Generisches Delta-Verfahren des Service API's.
E: Die DataSource ermittelt das Delta mit ALE Fortschreibungszeigern.
F: Die Delta-Datenstze werden ber Service API geladen.
' ': Der Delta Typ ist nicht definiert.

77

Welche Aussagen zum Delta Management sind richtig?


Die Delta-Queue wird durch die Service-ALE (S-ALE) aufgebaut und verwaltet.

Die Delta-Queue zu einer Data Source kann mittels Transaktion RSA7 angezeigt
werden.
Zulssige Deltaverfahren sind mit ihren Eigenschaften in der Tabelle ROOSOURCE
definiert.
Es wird pro BI-Zielsystem eine separate Delta-Queue zu einer Data Source eines
SAP-Quellsystems gehalten.
0
78

Welche Recordmodes sind bei der Fortschreibung im Delta-Verfahren fr den


entsprechenden InfoProvider mglich?
Reverse-Image -> InfoCube
Delete-Image -> InfoCube
Additives Image -> InfoSet
Before-Image -> DSO

79

Die Zentralen Aufgaben der Delta-Queue sind:


Ablagespeicher fr (seit der letzten Delta-Anforderung angefallene) neue und
vernderte Daten im Quellsystem, die bei der nchsten Delta-Anforderung an das BISystem bertragen werden

Die Delta-Queue enthlt nur die aktuellen Daten, die bei der nchsten DeltaAnforderung an das BI-System bertragen werden sollen
Die Delta-Queue enthlt die aktuellen / vernderten Daten sowie die Daten aus
vorangegangenen Delta-Anforderunen. Dieses ist notwendig im Fall eines
bertragungsfehlers
Es wird pro BI-Zielsystem mindestens eine Delta-Queue zu einer DataSource eines
SAP-Quellsystems (Mandant eines SAP-Quellsystems)
80

0
In Hinweis 380078 (FAQ's zu BW Delta) beantwortet SAP folgende Frage wie?
"Obwohl ein Delta-Request erst nach Beendigung des Sammellaufs (V3-Verbuchung)
gestartet wurde, enthlt er nicht alle Belege. Erst ein weiterer Delta-Request ldt die
noch fehlenden Belege in das BW. Wodurch wird dieses "Splitting" verursacht?"
Durch den Sammellauf werden die noch offenen V1-Belege nur zur Verarbeitung an
den Taskhandler bergeben und von diesem in einem oder mehreren parallelen
Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem
Ende des Sammellaufs im Quellsystem und dem Start des Delta-Requests im BW ein
gengend groes zeitliches "Sicherheitsfenster" ein.

ZVF350

14 - 31

FrageNr #Antw. Frage


Durch den Sammellauf werden die noch offenen V2-Belege nur zur Verarbeitung an
den Taskhandler bergeben und von diesem in einem oder mehreren parallelen
Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem
Ende des Sammellaufs im BW und dem Start des Delta-Requests ein gengend
groes zeitliches "Sicherheitsfenster" ein.
Durch den Sammellauf werden die bereits verbuchten V2-Belege nochmals zur
Verarbeitung an den Taskhandler bergeben und von diesem in einem oder mehreren
parallelen Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb
zwischen dem Ende des Sammellaufs im Quellsystem und dem Start des DeltaRequests im BW ein gengend groes zeitliches "Sicherheitsfenster" ein.
Durch den Sammellauf werden die noch offenen V2-Belege nur zur Verarbeitung an
den Taskhandler bergeben und von diesem in einem oder mehreren parallelen
Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem
Ende des Sammellaufs im Quellsystem und dem Start des Delta-Requests im BW ein
gengend groes zeitliches "Sicherheitsfenster" ein.
0
81

In Hinweis 380078 beantwortet die SAP die Frage "Was ist eine LUW in der DeltaQueue?" mit "Eine LUW aus Sicht der Delta-Queue kann ein einzelner Beleg sein,
eine Zusammenfassung von Belegen aus einem Sammellauf oder ein ganzes
Datenpaket von einem Anwendungsextraktor." Welche Aussagen zu LUW's stimmen
dagegen nicht?
Datenstze werden in vielen Fllen in Blcken (= LUW) in die Delta-Queue
geschrieben (technisch ein sogenannter COMMIT).
In der RSA7: die Zahl neben der Delta-Queue zu einer DataSource gibt die Anzahl an
Schreibvorgngen/Blcken in der Delta-Queue wieder und nicht die Anzahl der dort
enthaltenen Datenstze!
Im Customizing (Transaktion SBIW des Quellsystems) knnen Sie festlegen, wie die
Datenstze in Datenpakete innerhalb eines BI-(Delta-)Requests in Datenpakete
verteilt werden. Es ist ebenfalls in der SBIW einstellbar, wieviele LUW's einem
Datenpaket zugeordnet werden.
Im Customizing (Transaktion SBIW des Quellsystems) knnen Sie festlegen, wie die
Datenstze in Datenpakete innerhalb eines BI-(Delta-)Requests in Datenpakete
verteilt werden. Dies hat nichts mit den LUWs zu tun.
0

82

Eine DataSource ist ein Objekt zur Datenbeschaffung. Die DataSource ist in einem
OLTP-System lokalisiert. Sie besitzt:
eine Extraktstruktur,
Zeitmerkmale,
eine Extraktionsart und
eine Extraktionsmethode.

83

Bitte bewerten Sie die nachfolgenden Aussagen zur bertragung von Flatfiles.

Da beim Hochladen von Flatfiles keine Replikation der Metadaten fr eine DataSource
stattfindet, mssen Sie die Reihenfolge der Felder in der DataSource nachvollziehen.
Flatfiles knnen erst geladen werden, nachdem ein Quellsystem vom Typ "Datei" fr
das BI-System angelegt wurde.

ZVF350

15 - 31

FrageNr #Antw. Frage


Auf der Registerkarte "Vorschlag" in der DataSource besteht die Mglichkeit
basierend auf den Beispieldaten einen Vorschlag fr die Feldliste anzulegen.
Felder, die in einer CSV-Datei nicht gefllt sind, werden im Fall von Zeichenfeldern mit
einem Leerzeichen gefllt und im Fall von numerischen Feldern mit dem Wert Null (0).

84

85

0
Richtige Aussagen ber Flatfiles als DataSource sind:
Das Pseudo-Delta hnelt dem Snapshot-Verfahren
Fr CSV-Dateien mssen Trennzeichen, Escape-Character und Ende-Flag definiert
werden
Wenn Kopfzeilen ignoriert werden, mssen die Feldnamen alle von Hand eingegeben
werden
Es kann eine Routine zur dynamisch-aktuellen Bestimmung des Dateinames zur
Verfgung gestellt werden
0
Delta-Initialisierungen - Welche Aussagen sind richtig?
Voraussetzung fr das Anfordern von Deltas ist die Initialisierung des Deltaverfahrens.
Mit der Early-Delta-Initialisierung knnen bereits whrend der
Initialisierungsanforderung im Quellsystem Daten in die Delta-Queue geschrieben
werden.
Zur Fehlervermeidung sollte eine Initialisierungssimulation vor der Early-DeltaInitialisierung durchgefhrt werden.
Eine Simulation der Delta-Initialisierung ist fr DataSources aus SAP Quellsystemen
nur mglich, wenn die DataSource dies untersttzt.
0

86

Flatfile-DataSource-Ladefunktionen
Beim Delta-Verfahren FIL0 Delta Data auf der Registerkarte Extraktion, erwartet das
BI-System einen Reverse-Image mit dem neuen Status eines Satzes.
Wenn ein Altsystem nur den aktuellen neuen Status einer nderung kennt, muss die
berschreibungsfunktion des DataStore-Objekt verwendet werden.
Beim Delta-Verfahren FIL1 Delta Data erwartet das BI-System entweder einen Satz
mit dem Unterschied oder zwei Stze: einen mit dem After-Image und einen mit dem
Before-Image.

87

Wenn die DataSource als additiv definiert ist, muss entweder ein additives Image oder
es mssen beide Images(Reverse und After) verwendet werden.
0
Welche Aussagen zur Datenbertragung aus Flatfiles sind richtig?
Felder einer CSV-Datei die nicht mit Werten gefllt sind werden mit dem Wert NULL
(nicht definiert!) eingelesen.
Sie knnen Flatfiles erst laden, nachdem Sie ein Dateisystem als Quellsystem des BISystems angelegt haben.
Auf der Registerkarte Extraktion befindet sich die Drucktaste Prozess anlegen.
Beim Delta-Verfahren FIL0 Delta Data (After-Images) auf der Registerkarte Extraktion,
erwartet das BI-System einen After-Image-Satz mit dem neuen Status eines Satzes.
0

88

ZVF350

DB Connect untersttzende Datenbankmanagementsysteme (unter Beachtung der


Hinweise)

16 - 31

FrageNr #Antw. Frage


SAP DB
Microsoft SQL Server
CMS
IBM DB2 UDB
0
89

Bewerten sie nachfolgende Aussagen zum Datenladeprozess aus sogenannten


flachen Datein bzw. dem Datenimport von CSV-Datein!
Vorraussetzung fr das Laden von Flatfiles ist das Anlegen eines Quellsystems vom
Typ Datei im BI-System
ber Dateien knnen Text, Stammdatenattribute, Bewegungsdaten nicht aber
Hierarchien ins BI-System geladen werden
Felder die in einer CSV-Datei nicht gefllt werden bei Zeichenfeldern mit einem
Leerzeichen gefllt
Flatfiles bieten ebenfalls die Mglichkeit des Datenimports ber ein Deltaverfahren

90

Was gilt fr die bertragung von Flatfiles?


Nicht gefllte Felder in einer CSV Datei werden in Abhngigkeit vom Dateityp CHAR
mit Leerzeichen und im Fall von Dateityp NUM mit Null gefllt

Normalerweise am Anfang der CSV Datei befindliche Metadaten knnen in der Sicht
"Allgemeines" der Datasource als zu ignorieren markiert werden
Die Dateiformate CSV oder ASCII zeigen beim Laden groer Mengen an
Bewegungsdaten,hinsichtlich der dabei erreichbaren Performance, keine
Unterschiede
Falls der Gebrauch von Trennzeichen in einer CSV Datei inkonsistent ist, befinden
sich die Felder der betreffenden Datei nicht mehr in der richtigen Reihenfolge
0
91

Welche Aussagen zur bertragung von Flatfiles sind richtig?


BI untersttzt die bertragung von Dateien im ASCII und CSV-Format
Flatfiles knnen erst geladen werden , wenn ein Dateisystem as Quellsystem
angelegt ist
MS-Office Dateien knnen direkt geladen werden
Es ist mglich , eine Routine anzulegen , um automatisch den Namen der Quelldatei
zu verndern

92

Pseudo-Delta. Welche Aussagen treffen zu?


Man kann mit einem Pseudo-Delta arbeiten, wenn fr eine DataSource mit FullUpload der normale Delta-Ladevorgang nicht verfgbar ist.
Die Prozesse eines Pseudo-Deltas sind zeit- und somit auch kostenintensiv. Die
Fehleranflligkeit ist relativ gering.
Das Pseudo-Delta hnelt dem Snapshot-Verfahren.
Ein Pseudo ist eigentlich kein Delta-Verfahren, daher die Bezeichnung "Pseudo".

0
93

Welche Aussagen zur Datenextraktion aus Flatfiles sind richtig?


Das Flatfile darf maximal eine Kopfzeile enthalten.
Das Flatfile muss lokal auf der Workstation abgelegt sein.
Zur Bestimmung des Dateinamens kann eine Routine angelegt und genutzt werden.
BI untersttzt die bertragung von Daten aus Dateien im ASCII- oder CSV-Format.

ZVF350

17 - 31

FrageNr #Antw. Frage


94

0
Welche Aussagen sind nicht falsch?
Wenn die DataSource als additiv gekennzeichnet ist, mssen die neuen Datenstze
mit einem additive Image oder der Before/After-Kombination" im berschreibenmodus
angehangen werden.
Wenn ein Altsystem nur den aktuellen (neuen) Status einer nderung kennt, muss die
berschreibefunktion des InfoCubes verwendet werden.
Selektionsfelder werden als Sekundrindex in der PSA generiert. Dies ist fr die
Gewhleistung einer guten Performance fr die Datenselektion ber
Datentransferprozesse (DTP) wichtig, insbesondere bei semantischen Gruppen.
Zur automatischen Lschung berlappender Requests in InfoCubes kann in den
Prozessketten der Prozesstyp "berlappende Requests aus InfoCube lschen"
eingestellt werden.

4
95

0
Sie wissen nicht genau, welche Stze sich gendert haben, aber Sie wissen, dass es
nur Stze aus dem aktuellen Monat sein knnen. Wie knnen Sie vermeiden den
ganzen InfoCube neu zu laden?
Laden der Daten mit "Pseudo-Delta", was eigentlich kein Delta-Verfahren ist
Als Schritt 1: Lschen des Requests bzw. selektiv die Daten fr den aktuellen Monat
Als Schritt 2: Laden im InfoCube den gleichen aktuellen Monat erneut
Ziel bei Pseudo-Delta ist , den gesamten InfoCube nicht stndig lschen und erneut
laden zu mssen, sondern nur die Daten, die sich gendert haben knnten

96

97

0
Welche Aussagen sind richtig?
Ein Delta-Verfahren sagt grundstzlich nichts darber aus, WIE das Delta in der
Anwendung ermittelt wird.
Ist in der Extraktstruktur einer DataSource ein Feld vorhanden, das Werte enthlt, die
mit der Zeit monoton ansteigen, knnen Sie fr diese DataSource Delta-Fhigkeit
definieren
Fr die Untergrenze sollte ein Sicherheitsintervall nur dann angegeben werden, wenn
das Delta-Verfahren Neuzustand fr vernderte Stze lautet.
Beim Delta-Typadditives Delta liefert der zu ladende Satz fr summierbare
Kennzahlen nur die jeweilige nderung der Kennzahl.
0
Welche Aussagen zum Sicherheitsintervall des generischen Delta sind korrekt:
ein Sicherheitsintervall muss eine Ober- und Untergrenze haben.
fr die Untergrenze sollte ein Sicherheitsintervall nur dann angegeben werden, wenn
das Deltaverfahren Neuzustand fr vernderte Stze lautet, d.h. wenn der Stand im BI
berschrieben wird.
die Ober- bzw. Untergrenze des Intervalls kann mit einem Sicherheitsintervall
versehen werden.
ein Sicherheitsintervall ist beim generischen Delta nicht notwendig, da doppelte
Datenstze technisch bedingt nicht vorkommen knnen..
0

98

ZVF350

Grundlage fr die Architektur von UDI bilden folgende BI Java Connectoren:


BI JDBC Connector
BI ODBO Connector
BI SAP Query Connector

18 - 31

FrageNr #Antw. Frage


BI XMLA Connector
0
99

Richtige Antworten zur Datenintegration sind:


UD Connect kann 4 verschiedene Java-Connectoren verwenden
Das Java SDK kann in hnlicher Weise fr kundenspezifische Anwendungen
verwendet werden
DB Connect kann auch auf Excel-Tabellen zugreifen
Bei DB Connect drfen technische Feldnamen von Views hchstens 16 Stellen lang
sein

100

Vorraussetzung fr eine funktionierende DB Connect Schnittstelle sind ....


die Installation einer DBSL (Database Shared Library) auf dem BI-Applikationsserver.

das Vorhandensein einr Multi Connect Schnittstelle.


Bevor die richtigen Daten aus den Anwendungen externer RDBMS in BI geladen
werden knnen, mssen die Metadaten in Form einer DataSource vorhanden sein.
Auf dem BI-Applikationsserver muss ein DB-Client installiert sein.
0
101

Sind folgende Namenskonventionen richtig?


DB-Connect-Datasource (BW 3.5) sind mit 6 vor dem Namen gekennzeichnet
techn.Feldname von Tabellen und Views haben max 8 Zeichen
(Grobuchstaben,Zahlen,Unterstrich)
techn.Feldname von Tabellen und Views haben max 16 Zeichen
(Grobuchstaben,Zahlen,Unterstrich)
die Verwendung reservierter Feldnamen (z.B. count) ist nicht zulssig
0

102

Welche Aussagen sind richtig?


Als Quellobjekt- Elemente werden die Komponenten der UD Connect Quellobjekte,
z.B. Felder v. Tabellen, Merkmalen und Kennzahlen von Cubes bezeichnet.
Zu den vier BI Java Connectors gehren u.a. BI XMLA und BI ODBC Connector.
Die UD Connect Architektur beinhaltet im wesentlichen Java Komponents auf dem
J2EE Server und ABAP Komponenten in BI.
UD Connect stellt ber den SAP Java Connector Session Beans zur Verfgung.
0

103

Welche Aussagen zum Thema Kennzeichen Permanent im Zusammenhang mit den


techn. Einstellungen fr DB - Connect sind richtig?
Die beim Start hergestellte Standardverbindung hat den impliziten DBWiederverbindungstyp permanent (DBCON_RECO=Z), obwohl dieser nicht in der
Tabelle DBCON erscheint.
DB-Wiederverbindungstyp ist nicht permanent (DBCON_RECO=BLANK)
Das Kennzeichen sollte dann gesetzt werden, wenn die geffnete DB-Verbindung
unverzichtbar ist oder sehr oft auf diese zugegriffen wird und ein Abbruch vermieden
werden soll.
Der Permanent- Kennzeichen wird bentigt, wenn eine offene Datenbankverbindung
unterbrochen wird und beim Wiederaufsetzen keine Probleme auftauchen sollen.
0

ZVF350

19 - 31

FrageNr #Antw. Frage


104
3
Welche Aussagen zum DB Connect/UDI sind richtig?
Datenbanken lassen sich durch das Installieren eines DBClient an SAP anbinden.
Ausserdem wird eine Database Shared Library bentigt.
Verbindungsparameter einer DB-Verbindung sind z.B. DB-Verbindung,
Verbindungsinfo, Datenbankname.
In UDI gibt es folgende Connectoren: JDBC, ODBO, SAP Query und HTML .
UD Connect ermglicht die Anbindung an nahezu jede Plattform oder jedes
Quellsystem.
0
105

106

Bewerten sie nachfolgende Aussagen zur Datenbertragung mittels DB Connect!

Voraussetzung fr einen Datenzugriff mittels DB Connect ist, dass im BW-System ein


Datenbank-Quellsystem angelegt wird.
Fr die anzubindende Datenbank ist die Installation einer Database Shared Libary auf
dem Applikationsserver obligatorisch
ber DB-Connect ist es mglich eine Microsoft-SQL-Datenbank an das BW-System
anzubinden
Das Permanent-Kennzeichen sollte gesetzt werden, wenn eine geffnete DBVerbindung unverzichtbar bzw. hufig auf diese zugegriffen wird
0
Welche Aussagen zur Definition von DB Connect DataSources sind richtig?
Eine DB Connect Datasource kann jederzeit mit Bezug auf ein DB Connect
Quellsystem angelegt werden
Technische Namen von Tabellen und Views, die in er Extraktion verwendet werden,
bestehen ausschliesslich aus Grobuchstaben,Zahlen und Sonderzeichen
Voraussetzung fr das Lesen der Datenbanktabellen ist die Angabe einerTabelle/View
fr die Datenbankextraktion UND ob Tabellen oder Views zur Selektion verfgbar sein
sollen
Die Markierung fr transferrelevante Felder auf der Sicht "Felder" ist grundstzlich
optional

107

108

0
Welche Aussagen zu DB-Connect treffen zu?
DB-Connect bezeichnet eine Schnittstellezur Extraktion von Daten aus Tabellen/Views
aus DMBS.
Zur Nutzung dieser Schnittstelle mu diese Datenbank als Quellsystem eingerichtet
sein
Die Metadaten werden bei der ersten Extraktion von Daten mit bertragen
Die Metadaten mssen dem BI-System mittels einer Datasource bekannt gemacht
werden
0
Datenbereitstellung mit DB Connect & UD Connect. Welche Aussagen sind richtig?
BI JDBC Connector fr Verbindung zu multidimensionalen JDBC-Datenquelle.
Bei einem UD-Connect muss fr die anzubindende Datenbank noch eine SAPspezifische Database Shared Library auf dem BI-Applikationsserver installiert
werden.
Das Kennzeichen Permanent wird zur Wiederherstellung fr eine offene
Datenbankverbindung bentigt, wenn diese unterbrochen wird.

ZVF350

20 - 31

FrageNr #Antw. Frage


UD-Connect bietet die Mglichkeit ausschlielich Daten aus Fremdsystemen fr die
Analyse in BI zu integrieren.
109

0
Welche Aussagen zu DB Connect sind nicht falsch?
Um die Funktionen von DB Connect nutzen zu knnen, muss ein entsprechender DBClient, eine SAP-spezifische DBSL sowie ein passender BI-Java-Connector installiert
werden.
Beim Anlegen eines DB Connect - Quellsystems muss u.a. der SAP Benutzername
mit Passwort hinterlegt werden.
Bei der Definition der Feldeigenschaften einer DataSource kann eingestellt werden,
ob Kleinbuchstaben erlaubt sind oder nicht.
Der SAP-DB Task-Scheduler steuert die gleichzeitige Nutzung einer DB-Verbindung
durch mehrere SAP-Workprozesse.
0

110

Auf dem J2EE-Server des SAP NetWeaver Application Servers (AS) sind folgende BI
Java Connectoren verfgbar
BI SAP Query Connector
BI XML DB for OLAP (XMLA) Connector
BI Java Database Connectivity (JDBC) Connector
BI OLE for Analysis (ODBO) Connector

111

Die BI Java Connector-Typen sind:


BI Java Database Connectivity (JDBC) Connector
BI OLE DB for OLAP (ODBO) Connector
BI XML for Analysis (XMLA) Connector
BI SAP Query Connector

112

Welche Aussagen sind richtig?


Technische Feldnamen von Tabellen und Views drfen hchstens 16 Zeichen
umfassen und ausschlielich aus Grobuchstaben, Zahlen und Unterstrichen
bestehen.

113

Das Permanent-Kennzeichen wird bentigt, wenn eine geschlossene


Datenbankverbindung fr die Transaktionsausfhrung geffnet werden soll.
Unabhngig von diesem Kennzeichen versucht der SAP-Workflow, die unterbrochene
Verbindung wiederherzustellen.
Abhngig von diesem Kennzeichen versucht der SAP-Workflow, die unterbrochene
Verbindung wiederherzustellen oder nicht.
0
Beim Starten eines BI-Applicationservers ffnet der SAP Kernel eine Verbindung zur
Datenbank, auf der das BI-System luft. Diese Verbindung wird als: ...... bezeichnet.
Default-Verbindung
Multi-Connect-Verbindung
Virtuelle-Verbindung
Standard-Verbindung
0

114

Gibt es ....?
Outside-In-Data-Mart-Architektur
Replizierende Data-Mart-Architektur
Gemischte Data-Mart-Architektur
Aggregierende Data-Mart-Architektur
0

ZVF350

21 - 31

FrageNr #Antw. Frage


115
3
Datenbertragung mit Third-Party-ETL-Tools - Welche Aussagen sind richtig?
Fr die Extraktion von Daten und Metadaten aus Fremdsystemen stellt BI offene
Schnittstellen (Staging BAPIs) zur Verfgung.
Die Staging BAPIs funktionieren nur mit DataSource 3.x und nicht mit 7.0er
DataSources.
Metadaten knnen nur manuell durch Pflege der Transferstruktur in BI definiert
werden.
Datenbertragung kann sowohl ber Pull wie auch Push erfolgen.
0
116

Welche Aussagen zum DataMartInterface sind richtig?


Bei einer replizierenden Architektur, stellt ein BI-System die Quelldaten zur
Fortschreibung in andere BI-Systeme zur Verfgung.
Zur bertragung von Daten zwischen BI-Systemen mssen Sie zunchst ber eine
DataSource das BI-Quellsystem mit dem BI-Zielsystem verbinden.
Beim Anlegen eines Quellsystems verhalten sich alle BI-Systeme identisch zu SAPSystemen; dies gilt auch fr den Quellsystemtyp.
Um Daten mit dem DataMartInterface in ein oder mehrere Zielsysteme zu bertragen
ist es unter anderem wichtig folgendes zu machen: Eine Prozesskette im Zielsystem
anlegen und einplanen um das Inopackage und den Datentransferprozess
einzuplanen.
0

117

Welche Aussagen zur SAP Exchange Infrastructure sind richtig?


Die Verbindung zwischen SAP XI mit einem Anwendungssystem kann ber Adapter
erfolgen
Die Verbindung zwischen SAP XI mit einem Anwendungssystem kann auch ber
Proxy erfolgen
SAP Exchange Infrastructure soll die Kommunikation zwischen unterschiedlichen
Schnittstellen mittels einer einheitlichen Technologie ermglichen.
Es wird die Integration mehrerer verschiedener SAP- und SAP-fremder Systeme
ermglicht
0

118

119

120

ZVF350

Welche Aussagen zur XML-basierten Datenbereitstellung sind korrekt?


Der Quellsystemtyp "Web Service" ist neu in SAP NetWeaver 2004s BI.
Mittels XML beschriebene Daten, wie Elemente, Attribute und hierarchische
Strukturen knnen anhand des Simple Object Access Protocol in BI bertragen
werden.
SOAP-Nachrichten bestehen aus einem Envelope, einem obligatorischen Header und
einem optionalen Body.
Web-Service-DataSources untersttzen u.a. die Fortschreibung in Echtzeit mit Hilfe
eines Dmons (Real-Time Data Acquisition).
0
In einem WDSL-Dokument wird Folgendes festgelegt:
Die von einem Web-Service ausgefhrten Funktionen
Der Ort eines Web-Service
Die Zugangsmethode zum Web-Service
Die durch den Web-Service ausgetauschen Daten
0
Welche Aussagen zum Thema Datenbertragungsmechanismen sind richtig?

22 - 31

FrageNr #Antw. Frage


Daten werden in der Regel unter Verwendung einer Datenanforderung in BI
bertragen, die aus BI an das Quellsystem gesendet wird (Pull-Mechanismus)
Bei Web-Service-DataSources wird die Datenbertragung an BI extern durch das
explizite Versenden der Daten an BI gesteuert (Push-Mechanismus)
Durch den Push-Mechanismus bei Web Services ist die Verwendung von InfoPackage
berflssig
Nach der bertragung der Daten in die PSA der entsprechenden Web-ServiceDataSource, stehen die zur weiteren Verarbeitung mittels DTP zur Verfgung
0
121

Welche Aussagen XML-basierten Extraktion sind richtig?


WSDL ist ein HTML-Format zur Beschreibung von Web Services, hnlich des XMLSchema.
SOAP = XML + HTTP
Push-InfoPackages von Web-Service-DataSources werden automatisch als RealTime Data Acquisition-InfoPackages definiert.
Zustzlich zum Push-InfoPackage kann dem Dmon auerdem ein entsprechender
Datentransferprozess vom Typ "Real-Time Data Acquisition" zugeordnet werden.
Hierdurch knnen PSA-Daten in ein DataStore-Objekt fortgeschrieben werden und
stehen somit fr operatives Reporting zur Verfgung.
0

122

Benennen Sie die Vorteile SAP XI IntegrationsSzenarions:


Single Point of Entry
Full Quality of Service (Exactly Once in Order)
Read once - deploy many times
Intuitive Benutzerfhrung

123

Welche Quellsystemtypen gibt es?


SAP-Systeme: ECC- und Bi-Systeme
Web Services, die Daten nach dem Pull-Prinzip an das BI-System
Flachdateien, bei denen Metadaten manuell in BI gepflegt werden und Daten ber
eine Dateischnittstelle in das BI-System bertragen werden.
relationale oder mehrdimensionale Quellen die ber DB Connect ins BI bertragen.

0
0
124

Den Datentransferprozess (DTP) verwenden Sie, um mit Hilfe von bestimmen


Transformationen und Filtern Daten innerhalb des BI von einem persistenten Objekt
zu einem anderen Objekt zu bertragen. In dieser Hinsicht ersetzt der
Datentransferprozess das Data Mart Interface und das InfoPackage. Welche
Aussagen zum DTP stimmen?
Ein Fehlerstack eine eine Request-basierte Tabelle, in die die fehlerhaften Datenstze
aus dem Datentransferprozess geschrieben werden.
Die fehlerhaften Datenstze werden zur Laufzeit in einen Fehlerstack geschrieben.
Mit einem Fehler-DTP knnen Sie die Datenstze manuell oder mit Hilfe einer
Prozesskette in das Ziel verbuchen.

ZVF350

23 - 31

FrageNr #Antw. Frage


Im Extraktionsmonitor fr den Datentransferprozess knnen Sie zur PSA-Pflege
navigieren, indem Sie in der Symbolleiste Fehlerstack anzeigen whlen, und im
Fehlerstack die fehlerhaften Datenstze anzeigen und bearbeiten.

125

0
Richtig?
Sie knnen den Extraktionsmonitor auch ber die Pflege des Datentransferprozesses,
ber den Prozessmonitor auf einen DTP in der Protokollsicht der Prozesskettenpflege
oder ber die Funktion Monitor zum BI-Objekt aufrufen fr ein Zielobjekt in einem
Objektbaum in der Data Warehousing Workbench aufrufen.
Auch im Quellsystems(z.B ECC6.0) gehren zu jeder DataSource die Metadaten.
Im Gegensatz zur InfoSource 3.x verhlt sich eine InfoSource ab SAP NetWeaver
2004s BI wie eine InfoSource 3.x mit flexibler Fortschreibung.
Aus technischer Sicht umfasst eine DataSource eine Anzahl logisch
zusammengehriger Felder, die in einer komplexen Struktur (Extraktstruktur) zum
Datentransfer an BI angeboten werden.
0

126

127

Zu den Metadaten einer DataSource gehren aus Sicht des jeweiligen Quellsystems
z.B.:
Anwendungskomponente und InfoArea
Extraktor und Extraktionsmethode
Transfermethode und Deltaverfahren
Transportauftrag und Request-ID
0
Welche Aussagen zum BI Content sind nicht richtig?
Unter einem Content-Entwicklungssystem versteht man ein SAP- oder BI-System,
dessen Systemeinstellung auf Content steht. Um ein Entwicklungssystem als ContentSystem zu nutzen, mssen Sie ber die Transaktion SM 31 das entsprechende
Kennzeichen fr den Pflege-View RSADMINSV setzen.
Mit der bernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert
und in eine A(ctive)-Version bertragen; dabei werden entsprechende Objekte im
ABAP Dictionary und in Programmen generiert.
Die D-Version wird nach der bertragung gelscht.
Aus dem Entwicklungssystem werden ausschlielich diejenigen Objekte exportiert, die
als A-Version gesichert wurden. Beim Importieren in das Zielsystem werden diese
Objekte abhngig vom Objekttyp entweder direkt in die A-Version oder in eine MVersion importiert.
0

128

Wenn Daten aus einem BI-Objekt in ein anderes BI-Objekt geladen werden,
durchlaufen die Daten eine Transformation. Bei einer Transformation werden die
Felder der Quelle in das Format des Ziels umgesetzt. Eine Transformation wird
zwischen einer Quelle und einem Ziel angelegt. Welche Objekte sind keine
Zielobjekte?
InfoSource
Infoset
DataStore-Objekt und InfoCube
InfoObject
0

ZVF350

24 - 31

FrageNr #Antw. Frage


129
4
Wenn Daten aus einem BI-Objekt in ein anderes BI-Objekt geladen werden,
durchlaufen die Daten eine Transformation. Bei einer Transformation werden die
Felder der Quelle in das Format des Ziels umgesetzt. Eine Transformation wird
zwischen einer Quelle und einem Ziel angelegt. Welche Objekte sind Quellobjekte?
DataSource, InfoSource
DataStore-Objekt, InfoCube
InfoObject
InfoCube und InfoSet
0
130

Richtig?
Transformationsegeln ordnen eine beliebige Anzahl von Quellfeldern mindestens
einem Zielfeld zu.
Eine Transformation nur eine Regelgruppen enthalten.
Routinen verwenden Sie zur Implementierung komplexer Transformationsregeln.
Routinen sind als Regeltyp verfgbar.
Eine Regelgruppe ist eine Gruppe von Transformationsregeln. Sie enthlt eine
Transformationsregel fr jedes Schlsselfeld des Ziels.
0

131

Falsch?
Fr den Regeltyp "Formel" einer Transformation rt die SAP: Verwenden Sie Formeln
nicht fr VirtualProvider, da fr diese die Inversion nicht zulssig ist. Verwenden Sie
stattdessen Routinen.
Fr den Regeltyp "Direkte Zuordnung" gilt: Das Feld wird direkt aus dem gewhlten
Quell-InfoObject gefllt.
Zu B sagt die SAP: Wenn Sie ein Quell-InfoObject desselben Typs miteiner anderen
Whrung als der des Ziel-InfoObject zuordnen, mssen Sie die Quellwhrung ber die
Whrungsumrechnung in die Zielwhrung umwandeln oder die Whrung aus der
Quelle bernehmen.
Wenn man bereits Transformationsregeln angelegt hat, werden diese vom System
gelscht, sobald eine Startroutine angelegt wird.
0

132

In der Transformationsbibliothek, die in der Pflege der Transformationsregeln (und in


den Fortschreibungsregeln) zur Verfgung steht, sind vordefinierte Formeln
bereitgestellt. Die Transformationsbibliothek bietet mehr als 70 vordefinierte
Funktionen in folgenden Kategorien:
Passende Funktionen
Sonstige Funktionen
Funktionen fr Zeichenketten, Datumsfunktionen, Grundfunktionen, Mathematische
Funktionen
Logische Funktionen
0

133

Bei einem Upgrade des BI Content liefert SAP die Objekte des BI Content in einer
neuen D-Version aus. Bei einer erneuten bernahme knnen Sie die BI ContentObjekte mit den vorhandenen Objekten in der A-Version abgleichen.
Wenn Sie keinen Abgleich durchfhren, wird beim Aktivieren des BI Content die neue
Version bernommen (kopiert) und die (alte) A-Version berschrieben.
Die nderung von aus dem BI Content bernommenen Objekten ist mglich, da nicht
die BI Content-Version der Objekte, sondern nur die daraus abgeleitete M-Version
gendert wird.

ZVF350

25 - 31

FrageNr #Antw. Frage


Nicht alle Objekte untersttzen das Abgleichen!
Die nderung von aus dem BI Content bernommenen Objekten ist mglich, da nicht
die BI Content-Version der Objekte, sondern nur die daraus abgeleitete A-Version
gendert wird.
0
134

Welche Aussagen zur Datenbereitstellung sind nicht korrekt?


Eine Delta-Queue besteht aus drei Tabellen genau wie das InfoObject.
Voraussetzung fr einen Direktzugriff auf ein Merkmal ist, dass auf Registerkarte
Stammdaten/Texte das Kennzeichen gesetzt. ist
Beim Direktzugriff auf ein Merkmal sollten mglichst alle Navigationsattribute aus
Performancegrnden ausgeschaltet werden.
Fr jedes Third-Party-Tool muss ein eigenes Quellsystem angelegt werden.

135

Der bernahmeprozess von BI Content-Objekten lsst sich in drei Schritten


beschreiben. Im linken Navigationsfenster whlt man die Selektionsebene aus.
Welche gibt es?

InfoObjects nach Anwendungskomponenten


InfoAreas nach Anwendungskomponenten
InfoSources nach Anwendungskomponenten
Transportauftrag
0
136

Welche Aussagen zum Datenfluss sind korrekt?


Die Metadaten einer DataSource in der Tabelle ROOSOURCE im SAP-Quellsystem
und in den Tabellen RSOLTPSOURCE (fr 3.x DataSources) und RSDS (fr neue
DataSources) in BI abgelegt.
Mit Ausnahme von BI-Content-DataSources des Typs Hierarchie untersttzen alle
anderen DataSources (auch generische DataSources wie Flatfile-DataSources des
Typs Hierarchie) die Transfermethode PSA.
Bei DataStore-Objekten ist es mglich, die Whrungsumrechnung ber vordefinierte
Umrechnungsarten durchzufhren.
Die Metadaten einer Infosource sind persistent - ihre Daten nicht.
0

137

138

139

ZVF350

Der bernahmeprozess von BI Content-Objekten lsst sich in drei Schritten


beschreiben:
(1) Auswahl der Selektionsebene
(2) BI Content-Objekte pro InfoArea auswhlen
(2) BI Content-Objekte mit Sammelverfahren auswhlen
(2) BI Content-Objekte mit Gruppierungsverfahren auswhlen.
0
Als Abschluss des bernahmeprozesses von BI Content-Objekten kann man ber die
Auswahlliste bernehmen folgende Optionen whlen:
bernahme simulieren.
bernehmen im Hintergrund
bernehmen und Transport
bernehmen und Aktivieren
0
Fr den Regeltyp "Nachlesen von Stammdaten" einer Transformation gilt:
Die Fortschreibung des InfoObject erfolgt durch Nachlesen der Stammdatentabelle
eines Merkmals, das mit einem Schlssel und einem Wert in der Quelle enthalten ist
und das betreffende InfoObject als Attribut trgt.

26 - 31

FrageNr #Antw. Frage


Die Attribute des Merkmals und die zugehrigen Werte werden ber den Schlssel
ermittelt und anschlieend zurckgegeben.
Wenn die Stammdaten gendert wurden, mssen Sie den nderungslauf vornehmen.
Beim Nachlesen der Stammdaten wird die aktive Version gelesen. Falls diese nicht
vorhanden ist, wird eine leere Tabelle zurckgegeben.
Ein rekursives Nachlesen ist nicht mglich. Das bedeutet, dass weitere Attribute fr
das Attribut des Hauptmerkmals nicht nachgelesen werden knnen. Dazu mssen
Routinen verwendet werden.
0
140

Wenn Sie Daten aus verschiedenen Quellen fortschreiben mchten (mehr als eine
DataSource fr ein oder mehrere Quellsysteme), ist es sinnvoll, die Daten in einer
ersten Transformation auf der InfoObject-Ebene zu konsolidieren und die
Transformationen, die unabhngig von den Daten sind und fr alle Daten gelten, in
einer zweiten Transformation vorzunehmen. Welche Aussagen sind inkorrekt?
Ab SAP NetWeaver 2004s steht ein neuer InfoSource-Typ zur Verfgung. Sie knnen
aber weiterhin InfoSources 3.x anlegen und verwenden.
Im Gegensatz zu 3.x InfoSources verhlt sich eine InfoSource ab SAP NetWeaver
2004s BI wie eine InfoSource mit flexibler Fortschreibung.
Aus technischer Sicht umfasst die InfoSource mit flexibler Fortschreibung logisch
zusammengehrige Felder, die in einer einzigen Transferstruktur fr die
Fortschreibung in Datenziele angeboten werden.
Hierarchien knnen nicht mittels einer InfoSource mit flexibler Fortschreibung
fortgeschrieben werden!
0

141

Welche Aussagen zum Thema Direktzugriff sind nicht richtig?


Man verwendet die gleichen Extraktoren zum Auswhlen der Daten im Quellsystem
wie zum Replizieren der Daten in das BI-System.
Wenn eine Query ausfhrt wird, sendet jeder einzelne Navigationsschritt einen
eigenen Request an die Extraktoren der zugeordneten Quellsysteme.
Die Auswahl der Merkmale wird zusammen mit den Selektionskriterien fr diese
Merkmal gem den Transformationsregeln in Felder der Transferstruktur
transformiert.
Nach Anwendung der bertragungsregeln auf die Transferstruktur werden die
Ergebisse an den Extraktor bergeben.
0

142

Welche Aussagen zum BI Content sind richtig?


Nach Anwendung der bertragungsregeln auf die Transferstruktur werden die
Ergebisse an den Extraktor bergeben.
Nach dem Mapping der Transferstruktur werden die Ergebisse an den Extraktor
bergeben.
Obwohl Stammdaten und Hierarchien direkt vom Quellsystem gelesen werden,
mssen diese vor der Ausfhrung einer Query bereits in BI vorliegen.
Die vom Extraktor gelieferten Datenstze durchlaufen die bertragungsregeln im BISystem und werden anschlieend erneut in der Query gefiltert.
0

143

ZVF350

Welche Aussagen zum BI Content sind nicht richtig?


Im Metadata Repository der Data Warehousing Workbench kann man sich alle BI
Content-Objekte anzeigen lassen.

27 - 31

FrageNr #Antw. Frage


Bei der bernahme von BI Content-Objekten hat man die Mglichkeit, das Zielsystem
zuzuordnen.
Mit der bernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert
und in eine A(ctive)-Version bertragen. Danach kann in der Auswahlliste "Aktivierung"
die Option "Alle Aktivieren" ausgewhlt werden, die die tatschliche berfhrung in
aktive Objekte bernimmt.

144

Aus dem Entwicklungssystem werden ausschlielich diejenigen Objekte exportiert, die


als A-Version gesichert wurden.
0
Welche Aussagen zum BI Content sind richtig?
Wenn ein aktiviertes BI Content-Objekt verndert wird, um es an die
Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert.
Diese kann dann aktiviert werden, wodurch die ltere aktive Version zur M-Version
wird und die aktivierte M-Version zur A-Version.
Wenn ein aktiviertes BI Content-Objekt verndert wird, um es an die
Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert.
Diese kann dann aktiviert werden, wodurch diese zur aktuell verwendbaren Version
wird.
Wenn ein aktiviertes BI Content-Objekt verndert wird, um es an die
Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert.
Diese kann dann aktiviert werden, wodurch die ltere aktive Version berschrieben
wird.
Aus dem Entwicklungssystem werden ausschlielich diejenigen Objekte exportiert, die
als A-Version gesichert wurden. Beim Importieren in das Zielsystem werden diese
Objekte - abhngig vom Objekttyp entweder - direkt in die A-Version oder in eine MVersion importiert.

145

0
Der bernahmeprozess des BI Content beinhaltet als zweiten Schritt "BI ContentObjekte mit Gruppierungsverfahren auswhlen". Nach dem man das
Gruppierungsverfahren ausgewhlt haben, kann man die zu aktivierenden Objekte im
mittleren Navigationsfenster per Drag&Drop in das rechte Navigationsfenster
Gesammelte Objekte bernehmen. In der Auswahlliste Sammelmodus knnen Sie
festlegen, auf welche Weise die Objekte gesammelt werden sollen:
Automatisch Sammeln (Standardeinstellung): Die (abhngigen) Objekte werden direkt
bei der Auswahl der zu aktivierenden Objekte gesammelt.
Automatisch Sammeln (Standardeinstellung): Die (abhngigen) Objekte werden direkt
bei der bernahme der ausgewhlten Objekte gesammelt.
Manuell Sammeln: Die (abhngigen) Objekte werden erst dann gesammelt, wenn
man "abhngige Objekte sammeln" whlt.
Manuell Sammeln: Die (abhngigen) Objekte mssen einzeln ausgewhlt werden.
0

146

ZVF350

Beim bernahmeprozess des BI Contents kann man das


Gruppierungsverfahrenauswhlen. Mit dem Gruppierungsverfahren legen Sie fest,
welche (abhngigen) Objekte bei der Aktivierung der BI Content-Objekte zustzlich
bercksichtigt werden sollen. Dazu stehen Ihnen folgende Mglichkeiten nciht zur
Verfgung:
0
0

nur notwendige Objekte (Standardeinstellung)


Sicherung fr Systemkopie: mit dieser Einstellung knnen Objekte fr einen
Transportauftrag gesammelt werden - dieser Auftrag kann nach einer Systemkopie
wieder eingespielt werden.

Alle Objekte (Standardeinstellung)

28 - 31

FrageNr #Antw. Frage


0
Sicherung fr Transportauftrag: mit dieser Einstellung knnen Objekte fr einen
Transportauftrag gesammelt werden - ber diesen Auftrag knnen dann die Objekte
in des Produktivsystem transportiert werden.
0
147

Real-Time Data Acquisition untersttzt die taktische Entscheidungsfindung.


Hinsichtlich der Datenbereitstellung untersttzt es das operative Reporting durch die
Mglichkeit, Daten in Echtzeit (Real-time) in die Delta-Queue zu senden.Nicht
notwendige Voraussetzungen von Real-Time Data Acquisition sind:
BI Content-DataSources mssen mit der Eigenschaft, Real-Time Data Acquisition zu
untersttzen, ausgeliefert sein.
Generische DataSources mssen in den Einstellungen zum generischen Delta das
Kennzeichen Real-Time-fhig gesetzt haben.
BI Service API Stand SAP NetWeaver 2004s -> PI Basis 2004.3
PI Basis 2006.1

148

0
Fr die RDA gilt: Wenn die Delta-Queue des Quellsystems Daten anfordert, werden
die Daten mit einem speziell dafr angelegten InfoPackage in die PSA geladen. Zuvor
mssen Sie fr die DataSource eine Simulation der Initialisierung des Deltaverfahrens
durchfhren. Auf diesem Hintergrund ist richtig:
Die Requests zu RDA-InfoPackages werden synchronisiert und bleiben nur whrend
eines Ladeprozesse geffnet. .Ansonsten kann die Synchronisation nicht
gewhrleistet werden
Wenn Requests geschlossen werden, werden automatisch neue Requests geffnet
und der Datentransfer fr Real-Time Data Acquisition mit diesen neuen Requests
fortgesetzt.
Die Requests werden erst geschlossen, wenn die im RDA-InfoPackage festgelegten
Gren- und Zeitbeschrnkungen berschritten werden.
Angenommen die Anwendung im Quellsystem schreibt die Daten in die Delta-Queue
(z. B. V3-Verbuchung fr LIS-DataSources) . In diesem Fall holt der Dmon die Daten
OHNE Aufruf des Extraktors.

149

0
Welche Aussagen zum Delta-Management sind richtig?
Die Delta-Queue ist eine Funktion des S-API (Service-API).
Es wird pro BI-Zielsystem eine separate Delta-Queue zu einer Data Source eines
SAP-Quellsystems (= logischer Systemname = Mandant eines SAP-Quellsystems)
gehalten. Dadurch wird ermglicht, dass Delta-Datenstze zu dieser DataSource von
verschiedenen BI-Zielsystemen unabhngig voneinander angefordert werden knnen.
Das Delta-Verfahren ist eine Eigenschaft des Verbuchungsbausteins und gibt an, auf
welche Weise Daten bertragen werden.
Grundstzlich verhalten sich Stammdaten DataSources, in Bezug auf ihr DeltaVerfahren, genau wie Bewegungsdaten DataSources.
0

150

Welche Aussagen zum Delta-Verfahren sind nicht richtig?


Je nach Delta-Verfahren entscheidet das System, ob eine Serialisierung pro Request
oder pro Datenpaket notwendig ist.
Beim Replizieren von DataSources in ein BI-System werden Metadaten der
DataSource in einer der beiden Tabellen gespeichert: ROOSOURCE fr DataSources
vom Typ 3.x oder RSDS fr DataSources 7.0 .
Einen Request mit Fortschreibungsmodus Full-Update knnen Sie ber das Men
Scheduler als Reparatur-Full-Request kennzeichnen.

ZVF350

29 - 31

FrageNr #Antw. Frage


Die Initialisierung des Delta-Verfahrens ist Voraussetzung fr das Anfordern von
Deltas.
151

Der Fortschreibungsmodus (Updatemodus) im InfoPackage bestimmt welche Daten


sie anfordern mchten:
Bei einer Repeatanforderung werden die falsch oder unvollstndig geladenen Daten
der fehlerhaften Delta-Anforderung sowie die seither angefallenen Daten extrahiert.
Ein Repeat kann nur im Dialog angefordert werden.
Sie knnen somit die Initialisierung des Delta-Verfahrens, d. h. den Init-Request,
durchfhren, ohne die Verbuchung der Daten im Zielsystem stoppen zu mssen.
Sind die Daten des fehlerhaften Delta-Requests bereits in Datenziele fortgeschrieben
worden, muss man die Daten aus den betreffenden Datenzielen lschen. Wenn man
die Daten nicht aus den Datenzielen lschen, kann dies beim Repeat zu doppelten
Datenstzen fhren.!
0

152

Welche Aussagen zur Initialisierung des Delta-Verfahrens sind richtig?


Wenn eine Delta-Queue zur DataSource im Quellsystem erzeugt wird, bedeutet dies,
dass ein leerer Ablagebereich fr neue oder genderte (Delta-)Datenstze zu einer
DataSource angelegt wird.
Ist kein initialer Datenbestand zu bertragen, kann das Delta-Verfahren auch mittels
der Option 'Initialisierung mit Datenbertragung' initialisiert werden.
Die Selektionen der Initialisierung werden automatisch fr nachfolgende DeltaUpdates bernommen. Im Delta-Update knnen keine anderen Selektionen
spezifiziert werden!
Das Lschen aller Initialisierungsselektionen zur DataSource fhrt gleichzeitig zur
Lschung der Delta-Queue zur DataSource im Quellsystem!
0

153

DataSources, die die Early-Delta-Initialisierung untersttzen, stehen seit Plug-In


2002.1 zur Verfgung. Das Feld ZDD_ABLE (Merkmalswert = X) der Tabellen
RSOLTPSOURCE (in BI) oder ROOSOURCE (im Quellsystem) gibt an, ob eine
DataSource eine Early-Delta-Initialisierung untersttzt. Folglich bewerten Sie welche
Aussagen als korrekt?
Wenn Sie die Early-Delta-Initialisierung durchfhren, kann die Verbuchung im
Quellsystem weiterlaufen und die Daten knnen bereits in die Delta-Queue
geschrieben werden, whrend die Initialisierungsanforderung abgearbeitet wird.
Beachten sie, dass in einigen Anwendungen (z. B. LO Cockpit) trotzdem eine
verbuchungsfreie Zeit zum Fllen der so genannten Neuaufbautabellen bentigt wird.
In diesen Fllen wird die verbuchungsfreie Zeit lediglich reduziert.
Die Selektion der Delta-Initialisierung zur DataSource wird abgespeichert UND die
Delta-Queue zur DataSource wird im Quellsystem erzeugt.
Beachten sie, dass in einigen Anwendungen (z. B. LO Cockpit) trotzdem eine
verbuchungsfreie Zeit zum Fllen der so genannten Verbuchungstabellen bentigt
wird. In diesen Fllen wird die verbuchungsfreie Zeit lediglich reduziert.
0

154

ZVF350

Welche Aussagen zur Datenbereitstellung aus Flatfiles sind richtig?

30 - 31

FrageNr #Antw. Frage


Bei Hierarchiedaten und Textdaten gelten feste Formatanforderungen fr die Datei,
whrend bei Stammdatenattributen die Attributdatenfelder in einer beliebigen
Reihenfolge vorliegen knnen, solange sie den Feldern in der Datei entsprechen. Die
Schlssel mssen sich jedoch am Anfang des Dateilayouts befinden.
Metadaten (beschreibende Informationen oder Daten ber Daten) mssen
selbstverstndlich ignoriert werden. Sie knnen dies ber die Option zu ignor.
Kopfzeilen auf der Registerkarte Extraktion der Flatfile-DataSource steuern.
Beim Hochladen von externen Daten haben Sie die Mglichkeit, die Daten von einer
beliebigen Workstation in BI zu laden. Aus Grnden der Performance sollten Sie
jedoch die Daten auf dem Applikationsserver ablegen und von dort in BI laden. Auf
diese Weise knnen Sie die Daten auch im Hintergrund laden
Delta-Typ 'F': Die Delta-Datenstze werden per FlatFile geladen. Dieser Delta-Typ
findet nur fr DataSources zu Flat File Quellsystemen Verwendung. Flatfileswerden in
die PSA importiert, wenn Sie das InfoPackage ausfhren. Der Stagingprozess wird
daraufhin ausgefhrt. Die Delta-Queue kann mit Hilfe von Pseudo-Deltas verwendet
werden.

ZVF350

31 - 31