Sie sind auf Seite 1von 6

I NTE R N E R EVI S I O N

MARIO KNDIG

DATA SCIENCE IN DER INTERNEN REVISION


Erfahrungen und Herausforderungen
Durch die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft
werden riesige Mengen von Informationen generiert. Deshalb sieht sich die interne
Revision in der Wahl ihrer Prfmethodik vor neue Herausforderungen gestellt. Der
Autor beschreibt Mglichkeiten, um die Analyse von Massendaten als Prfschritt innerhalb einer Revision zu integrieren.

1. EINLEITUNG
Dieser Beitrag beschreibt den Einsatz moderner Datenanalyse-Technologien durch die interne Revision. Mit der zunehmenden Digitalisierung der Kommunikationskanle
und der Kundenprozesse entsteht eine noch nie da gewesene
Datenmenge, die es zu erschliessen gilt. Die Anwendung explorativer Datenanalysen ergnzend zu den bestehenden
Prfmethoden ist u.E. unverzichtbar und wird knftig an
Stellenwert zunehmen. Um die neuen Technologien und Methoden nutzen zu knnen, wird Zugang zu entsprechender
Infrastruktur sowie statistisches und technisches Know-how
bentigt. Dies fhrt zu einem vernderten resp. erweiterten
Kompetenzprofil der Revisionsteams.
In der Datenanalyse werden folgende Begriffe unterschieden:
Business Intelligence: Unter Business Intelligence werden
Tools und Verfahren verstanden, die operative und finan
zielle Unternehmensdaten systematisch konsolidieren und
analysieren. Mithilfe von Business Intelligence werden Reports und Cockpits generiert, die in der Tendenz standardisiert und vergangenheitsorientiert sind[1].
Data Science: Mit Data Science ist die Gesamtheit aller Verfahren und Technologien gemeint, die es ermglichen, unterschiedliche Daten aus verschiedenen Quellen auszuwerten. In der Tendenz erfolgen diese Ttigkeiten zukunftsorientiert und explorativ. Dabei werden mittels Data Mining
statistische Methoden und Algorithmen angewendet, um
aus den Daten verborgenes Wissen ableiten und Prognosen
vornehmen zu knnen. Zudem werden mithilfe von Big Data
Analytics sich dauernd verndernde sowie unstrukturierte
Massendaten verarbeitet.
MARIO KNDIG,
DIPL.ING.FH, CIA/CISA,
LEITER OPERATIONELLE
REVISION,
CSS VERSICHERUNG,
LUZERN,
MARIO.KUENDIG@CSS.CH

4|2016 E X P E R T F O C U S

Standardabfragen: Bei den Standardabfragen handelt es sich


um vorgefertigte Datenabfragen und Berichte, die kontinuierlich ausgefhrt, aufbereitet und verteilt werden.
Ad-hoc-Abfragen: Ad-hoc-Abfragen werden auf spezifische
Fragestellungen hin vorgenommen und finden in der Regel
nur einmal genau so statt.
2. NOTWENDIGKEIT VON DATENANALYSEN
IN DER INTERNEN REVISION
Gemss Standards des Institute of Internal Auditors (IIAStandards) sind die bergeordneten Prfziele der internen
Revision die Verlsslichkeit der finanziellen Berichterstattung, die Einhaltung von Gesetzen und Vorgaben der Unternehmensfhrung sowie die Wirtschaftlichkeit und Wirksamkeit der Geschftsprozesse. Seit 2013 ist die Erreichung
der strategischen Ziele als Prfziel explizit aufgefhrt[2].
Damit sieht sich die interne Revision zunehmend mit zukunftsbezogenen Fragestellungen konfrontiert.
Um eine verlssliche Aussage ber diese Prfziele machen
zu knnen, kann die interne Revision eine Prfung zufllig
gewhlter Geschftsflle vornehmen (Stichprobe) oder eine
Vollerhebung smtlicher Geschftsvorflle durchfhren.
Die heutigen Geschftsttigkeiten generieren durch ihre
automatisierten Prozesse und den damit verbundenen In
formatiksystemen eine grosse Menge an Informationen.
Eine stichprobenartige Prfung der Geschftsvorflle gengt oft nicht, um die Wirtschaftlichkeit der Geschftsprozesse und die Angemessenheit des Ressourceneinsatzes beurteilen zu knnen. Stattdessen mssen die Informationen
aneinandergefgt und in ihrer Grundgesamtheit betrachtet werden. Eine vergangenheitsorientierte Prfung, wie es
in der Buchprfung der Fall ist, gengt bei operationellen
Revisionen oft nicht mehr. Es muss eine zukunftsorientierte Aussage ber die Erreichung der strategischen Ziele
gemacht werden knnen. Dazu mssen neue Wege eingeschlagen werden, um aus Informationen Tendenzen erkennen und Prognosen ableiten zu knnen. Dolose Handlungen lassen sich durch klassische Prfungsanstze nur in
den seltensten Fllen feststellen und wenn, dann meist
nur zufllig. Es besteht hingegen die Mglichkeit, mittels
erweiterter statistischer Methoden verborgene Handlungs-

227

I NTE R N E R EVI S I O N

3. DER EINSATZ VON BUSINESS INTELLIGENCE


IM VERSICHERUNGSUMFELD
Business Intelligence kann als Prozess betrachtet werden,
der Unternehmensdaten systematisch konsolidiert, analysiert und den Entscheidungstrgern zugnglich macht. Da
bei gilt es drei Phasen zu bercksichtigen: 1.Extraktion der
Daten, 2.Analyse der Daten und 3.Bereitstellung der Daten
in einer strukturierten Form. Bei der ersten Phase werden im
sogenannten ETL-Prozess[3] (Extraction, Transformation,
Load) die operativen Bewegungsdaten aus den Backend-Systemen extrahiert, transformiert und in ein Data Warehouse
berfhrt. Die zweite Phase kann als die Aktualisierung der
verschiedenen Cockpits, Dashboards und Standardreports
interpretiert werden. Die dritte Phase entspricht der berfhrung der Abfrageresultate in die Entscheidungsprozesse,
was der Aktualisierung und Verteilung der Management Reports entspricht. Diese Prozesse erfolgen oft standardisiert.
Die Berichte sind vorgefertigt und erlauben wenig Inter
aktion.
Die oben genannten Ttigkeiten entsprechen im Wesent
lichen den Aufgaben der Einheiten der First Line, insbe
sondere dem operativen und finanziellen Controlling. Hier
werden Betriebs- und Finanzkennzahlen multidimensional
zusammengestellt, aggregiert und der Geschftsleitung zugnglich gemacht. Auch Second-Line-of-Defense-Funktionen bedienen sich fr ihre Ttigkeiten der Business-Intelligence-Berichte. So verfgen die Assurance-Stellen des internen Kontrollsystems (IKS) ber Standardreports, um die
Einhaltung von Schlsselkontrollen zu berprfen. Beispiel
hierfr ist die berprfung der Einhaltung von Kompetenzordnungen.
Der Third Line of Defense (interne Revision) stehen kaum
Standardreports und Dashboards zur Verfgung. Repetitive
Fragestellungen, die regelmssig dem Verwaltungsrat und
dem Prfungsausschuss zugnglich gemacht werden, kommen selten vor. Als Ausnahme kann hier allenfalls Continuous Monitoring erwhnt werden, das gelegentlich zum
Einsatz kommt.

228

Abbildung 1: GRAD DER STANDARDISIERUNG


IM KONTEXT DES THREE-LINE-OF-DEFENSEMODELLS
hoch

Grad der
Standardisierung

muster aufzuspren, zu visualisieren und zielgerichtet zu


untersuchen.
Im Modell der Three Lines of Defense (TLoD) ist die interne
Revision die Third-Line-Funktion. Sie stellt somit die letzte
Verteidigungslinie dar, sollten Risiken und Gefahren die
vorgelagerten Linien durchbrechen. Erste Verteidigungslinie ist das operative Management, zweite Verteidigungslinie ist das Risikomanagement sowie Controlling- und Compliance-Funktionen. Sttzt sich die interne Revision in ihrer
Ttigkeit lediglich auf vorhandenes Wissen und auf bestehende Managementreports der First und Second Line, kann
sie ihre Funktion als Third Line nicht vollumfnglich wahrnehmen. Sie ist dann nur bedingt in der Lage, Kontroll
lcken, Geschftsrisiken und -potenziale festzustellen, die
nicht bereits durch die vorgelagerten Verteidigungslinien
identifiziert worden sind. Die interne Revision muss deshalb
vermehrt in der Lage sein, die Unternehmensdaten mittels
Data Science auf neue Art und Weise zu kombinieren und zukunftsbezogen zu analysieren.

DATA S C I E N C E I N D E R I NTE R N E N R EVI S I O N

Ad-hocAbfragen

Dashboard
Cockpits Reports

tief
1st Line

2nd Line

3rd Line

Quelle: Eigene Darstellung

Eine besondere Bedeutung kommt den Ad-hoc-Abfragen


zu,die ergnzend zu den Standardabfragen situations- oder
problembezogen vorgenommen werden. In diesem Zusammenhang wird auch von OLAP (Online Analytical Processing) gesprochen. Ad-hoc-Abfragen erfolgen oft einmalig.
Die Abfragen werden entweder zielgerichtet vorgenommen,
entsprechend einer spezifischen Fragestellung oder eines
Hypothesentests, oder sie erfolgen weniger zielgerichtet und
sind explorativ, um sich verborgenen Zusammenhngen anzunhern. Fr beide Anstze kann ein multidimensionaler
Datenwrfel erstellt werden, der mittels klassischer Drillfunktionen analysiert wird. Das Erstellen von Dashboards
und Cockpits sieht auf den ersten Blick nach Standardreports
aus. Aufgrund flexibler Architekturen lassen sich auch Adhoc-Cockpits erstellen, die nach ihrem Einsatz wieder verworfen werden.
Ad-hoc-Datenabfragen werden auf allen Stufen der TLoD
angewendet, wobei sie in der First LoD im Vergleich zu den
Standardabfragen und Dashboards tendenziell weniger hufig vorkommen. In der Second und Third LoD nehmen Adhoc-Abfragen in der Hufigkeit und in der Bedeutung zu.

Abbildung 2: AGILITT BEI EXPLORATIVEN


ANALYSEN MITTELS AD-HOC-ABFRAGEN
Design der Ad-hoc-Abfrage

Erkenntnisse
Antwortzeit

Analyse der Abfrageresultate


Quelle: Eigene Darstellung

E X P E R T F O C U S 2016|4

DATA S C I E N C E I N D E R I NTE R N E N R EVI S I O N

Abbildung1 veranschaulicht die unterschiedlichen Ausprgungen der Standardisierung von Abfragen und Reports im
TLoD-Modell.
Fr die interne Revision sind Ad-hoc-Abfragen von fundamentaler Bedeutung. Die interne Revision kann dadurch
Lcken schliessen und fr die Unternehmung neues Wissen
generieren, das durch die Standardreports und StandardDashboards nicht erschlossen wird. Durch die zyklische Verfeinerung von Ad-hoc-Abfragen entsteht ein explorativer Datenanalyseprozess. Es werden immer wieder neue Erkenntnisse und daraus wiederum neue Fragestellungen generiert.
Dies ermglicht der internen Revision, sich der Essenz von
Handlungsmustern und Geschftsablufen anzunhern.
Sackgassen und Richtungsnderungen mssen bei explorativen Analysen einkalkuliert werden. Fr den Erfolg des explorativen Analyseprozesses sind die Performance resp. die
kurze Antwortzeit der Ad-hoc-Abfragen sowie die Flexibilitt in den Datenarchitekturen entscheidend. Je schneller sich
die Zyklen wiederholen, desto dynamischer und agiler knnen neue Erkenntnisse in die nchste Abfrage einfliessen
und den Erkenntnis- und Lernprozess am Leben erhalten.
4. DAS ERWEITERTE POTENZIAL
VON DATA SCIENCE
Wie eingangs erlutert, wird unter Data Science die Gesamtheit aller Technologien und Methoden aus dem Data

4|2016 E X P E R T F O C U S

I NTE R N E R EVI S I O N
Mining und Big Data verstanden. Mit Data Science wird das
Ziel verfolgt, aus den internen und externen Datenbestnden neues Wissen abzuleiten, das mit den traditionellen
Business-Intelligence-Plattformen nicht erschlossen werden

Mit Data Science wird das


Ziel verfolgt, aus den internen und
externen Datenbestnden
neues Wissen abzuleiten, das mit
den traditionellen BusinessIntelligence-Plattformen
nicht erschlossen werden kann.
kann. Dabei kommen erweiterte statistische Methoden zum
Einsatz. Insbesondere werden Regressionsanalysen angewendet, um nicht offensichtliche Zusammenhnge entdecken zu knnen. Mittels Assoziations- und Clusteranalysen
werden Gruppen- und hnlichkeitsanalysen vorgenommen.
Outliers-Analysen dienen dem Aufspren von Irregularitten und Spezialfllen. Whrend einer Revision knnen die
Resultate aus dem Data Mining als Ausgangsbasis fr gezielte Einzelfallprfungen herangezogen werden. Man

229

I NTE R N E R EVI S I O N

DATA S C I E N C E I N D E R I NTE R N E N R EVI S I O N

Dadurch lassen sich Prozessflsse in ihrer Gesamtheit visualisieren und analysieren. Durch die Digitalisierung insbesondere in der Finanz- und Versicherungsbranche[4] werden
die Prozesse zunehmend automatisiert abgewickelt, was den
Einsatz von Process Mining immer wichtiger macht.
Data Science unterscheidet sich im Vergleich zu Business
Intelligence durch den eher explorativen Analyseansatz. Zu
dem richtet Data Science das Augenmerk vermehrt auf die
Zukunft und versucht, Prognosen vorzunehmen (Abbildung3).
Wenn das Volumen und die Struktur der Datenmenge
nicht mehr mit traditionellen Datenbanksystemen bewltigt

Abbildung 3: DER UNTERSCHIED ZWISCHEN


BIG DATA UND BUSINESS INTELLIGENCE IN
BEZUG AUF DEN ANALYSEANSATZ UND
DESSEN ZIELORIENTIERUNG[5]
explorativ
Data
Science
Analyseansatz

Data Science unterscheidet sich im


Vergleich zu Business Intelligence durch
den eher explorativen Analyseansatz.

Business
Intelligence

deskriptiv
Vergangenheit

Zeit

Zukunft

spricht auch von datengetriebenen Analysen. Ein wesentliches Merkmal von Data Mining ist die Generierung von Hypothesen whrend des Analyseprozesses. Eine andere wichtige Rolle im Data Mining spielt zudem die Visualisierung
der Resultate in Form von Grafen und Netzwerken. Dadurch
kann ein vertieftes Verstndnis fr die Zusammenhnge erlangt werden. Das sogenannte Process Mining nimmt in der
operationellen Revision einen besonderen Stellenwert ein.

werden knnen, kommen Technologien aus dem Bereich von


Big Data Analytics zum Einsatz. So kann beispielsweise im
Rahmen einer IT-Revision der Gesamtbestand der systemtechnischen Logfiles die mehrere Millionen unterschiedlichster Eintrge beinhalten knnen auf Aufflligkeiten
hin untersucht werden. Diese Daten knnen nicht mehr in
relationalen Datenbanken gespeichert werden. In diesem
Zusammenhang wird auch von NoSQL gesprochen, wobei
SQL fr Structured Query Language steht, die Sprache zur Definition von Datenstrukturen in relationalen Datenbanken.
Mit NoSQL ist nicht kein SQL gemeint, sondern nicht nur

Abbildung 4: BIG-DATA-ARCHITEKTUR DER CSS VERSICHERUNG[9]

Big-Data-Architektur
ERM

MOVE

MANAGE

ACCESS
Marketing

CRM
SCM
CEM

CSS DATA WAREHOUSE

Text
Social
Media
QUELLEN

230

Kunden

TERADATA DATABASE

Logs

HADOOP

Marketing
Applikationen

DATA
PLATFORM

CALL
CENTER

Management

DISCOVERY PLATFORM

Business
Intelligence

Data
Mining

Math
and Stats

TERADATA ASTER DATABASE

TOOLS

FrontendBenutzer
BusinessAnalysten
Data
Scientists
Interne
Revision
ENDBENUTZER

E X P E R T F O C U S 2016|4

DATA S C I E N C E I N D E R I NTE R N E N R EVI S I O N

SQL oder erweitertes SQL[6]. In relationalen Datenbanken


liegt das Hauptaugenmerk auf der Datenkonsistenz und auf
der Datenmodellierung. Da durch den Einsatz von Big Data
die Datenstruktur oft nicht bekannt ist, wird auf ein starres

Wenn das Volumen und die


Struktur der Datenmenge nicht mehr
mit traditionellen Datenbanksystemen bewltigt werden kann,
kommen Technologien aus
dem Bereich von Big Data Analytics
zum Einsatz.
Datenmodell und auf eine absolute Datenkonsistenz verzichtet, weshalb auch von eventual consistency gesprochen
wird[7]. Um die notwendige Performance gewhrleisten zu
knnen, werden die Daten auf mehrere Knoten in einem verteilten Computersystem gespeichert und damit gezielt redundant gehalten. Die Abfragen knnen dadurch parallelisiert werden. Eine zentrale Rolle in Big Data Analytics spielt
der von Googleentwickelte Suchalgorithmus namens MapReduce[8]. Das Framework von Apache Hadoop kombiniert
MapReduce und verteilt Speichersysteme zu einer performanten und skalierbaren Big-Data-Umgebung. In Zusammenhang mit Big Data ist auch die In-Memory-Technologie
zu erwhnen. Hierbei werden ganze Datenbestnde in den
temporren Speicher geladen, was aufwendige Leseprozesse
auf Festplatten nicht mehr ntig macht. Auch beim Einsatz
von In-Memory-Technologien wird das traditionelle Datenmodell relationaler Datenbanken teilweise verworfen. Die

4|2016 E X P E R T F O C U S

I NTE R N E R EVI S I O N
Datenbestnde werden nicht (oder nur wenig) modelliert
und knnen weitgehend unverndert in den Speicher geladen werden. Die Daten werden komprimiert und knnen direkt adressiert werden. Dies ermglicht performantes Na
vigieren und Filtern, zum Beispiel in Cockpits und Dashboards.
5. DIE NOTWENDIGE INFRASTRUKTUR
FR DATA SCIENCE
Die interne Revision kann als einer von mehreren Endbenutzern ber einen Zugriff auf die Big-Data-Architektur der eigenen Unternehmung zugreifen. Im Folgenden wird beispielhaft die Big-Data-Architektur der CSS Versicherung, eines
Schweizer Krankenversicherers, erlutert (Abbildung4). Die
CSS Versicherung setzt Teradata Aster ein, was die Kombination von NoSQL-Datenbanken, klassischen Data-WarehousePlattformen und massiv parallel arbeitenden SQL-Datenbanken ermglicht. Auf der Discovery-Plattform knnen Data
Labs eingerichtet und mit einem einzigen Statement auf alle
drei Plattformen zugegriffen werden. Aster bietet Pfad-, Assoziations- und Graph-Analysen, die auf dem MapReduceAlgorithmus basieren. Gengen diese Methoden nicht, knnen Statistiklsungen wie R oder SAS auf die Aster-Daten zugreifen. Auch spezialisierte Data-Mining-Anwendungen
wie RapidMiner oder Visualisierungssoftware wie Gephi
oder Fluxicon Disco lassen sich integrieren. Eine Kombination von Aster und In-Memory-Cockpits ist denkbar. Dabei
verschmelzen die Grenzen zwischen Business Intelligence,
Data Mining und Big Data.
6. DAS ERWEITERE KOMPETENZPROFIL
DER REVISIONSTEAMS
Die Anforderungen an die Kompetenzen der internen Revision sind bereits jetzt breit gefchert. Vertiefte Kenntnisse in

231

I NTE R N E R EVI S I O N

DATA S C I E N C E I N D E R I NTE R N E N R EVI S I O N

Finanzen, Betriebswirtschaft, Compliance, IT und der jeweiligen Branche sind notwendig. Als ob das nicht schon genug
wre, wird sich mit der zunehmenden Datengetriebenheit
der Unternehmungen und der Gesellschaft die interne Revi-

Parallel zu den regulren


Prfhandlungen erfolgt eine explorative
Datenanalyse mit zyklischen Feedback-schlaufen mit dem Revisionsteam
und den revidierten Einheiten.
sion auch Kompetenzen in Data Science aneignen mssen.
Aber nicht nur technisches und statistisches Know-how ist
gefragt. Um Data Science erfolgreich anwenden zu knnen,
bentigt es auch Soft Skills wie Neugier, Kreativitt und
Kommunikationsfhigkeit. Tom Davenport, Professor an
der Harvard Business School, hat 2012 das Kompetenzprofil
eines Data Scientist wie folgt beschrieben: a hybrid of data
hacker, analyst, communicator, and trusted adviser. The combination
is extremely powerful and rare.[10]
Da Data Science eine interdisziplinre Wissenschaft ist,
kann sich das Potenzial nicht voll entfalten, wenn eine oder
mehrere Disziplinen wenig ausgeprgt sind oder vollstndig fehlen. Abbildung5 zeigt, dass die Kompetenzen Programmierung (Hacking Skills), Statistik und branchenspezifisches resp. fachliches Know-how notwendig sind, um den
Anforderung von Data Science gerecht zu werden.
Programmierkenntnisse werden deshalb bentigt, weil
die Extraktion der Daten aus den verschiedenen IT-Systemen
oft nicht standardisiert werden kann. Vor der Integration in
die Analyseumgebung mssen die Daten in den meisten Fllen transformiert werden. Dafr mssen ETL-Scripts sowie
SQL- resp. NoSQL-Programme erstellt werden. Statistische
Methoden oder Simulationsalgorithmen sind in den statistischen Softwarepaketen in den meisten Fllen ein integraler
Bestandteil des Funktionsumfangs. Die Analysen werden
dementsprechend durch die Tools gefhrt und untersttzt.
Nichtsdestoweniger muss fr jedes Problem individuell die
richtige statistische Methode gewhlt werden, was einiges an
Grundlagenkenntnissen erfordert. Die Resultate mssen auf
ihre statistische Relevanz hin berprft und in den Gesamtkontext der Unternehmung und der Branche eingebettet
und interpretiert werden knnen. Da in den seltensten Fllen ein Revisor ber smtliche oben genannten Kompetenzen verfgt, empfiehlt es sich, die Kompetenzen wenigstens
im Team resp. in der Gruppe verfgbar zu haben. Kann auch
das nicht gewhrleistet werden, ist bei Bedarf ein Joint Audit

Anmerkungen: 1)EMC, Data Science and Big


Data Analytics, John Wiley & Sons; 2015, S.12.
2)IIA-IPPF-Standard 2120.A1. 3)EMC, Data Science and Big Data Analytics, John Wiley & Sons;
2015, S.28. 4)Prof. Dr. Peter Maas, Instituts fr Versicherungswirtschaft der Universitt St.Gallen, Big
Data in der Versicherungswirtschaft, 2014. 5)EMC,

232

Abbildung 5: DAS DATA-SCIENCE-KOMPETENZMODELL NACH DREW CONWAY[11]

Machine
Learning

Hacking Skills

Math and Statistics


Knowledge

Data
Science
Danger
Zone

Traditional
Research

Substantive
Expertise

mit einem externen Data Scientist vorstellbar. In diesem Fall


begleitet der Data Scientist das Revisionsteam im Rahmen
eines Audits. Parallel zu den regulren Prfhandlungen erfolgt eine explorative Datenanalyse mit zyklischen Feedbackschlaufen mit dem Revisionsteam und den revidierten Einheiten.
7. FAZIT
Die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft stellt die interne Revision vor neue Herausforderungen in der Wahl der Prfmethodik. Data Science

Data Science bietet Mittel


und Wege, um die Analyse
von Datenmassen als Prfschritt
innerhalb einer Revision zu
integrieren.
bietet Mittel und Wege, um die Analyse von Datenmassen
als Prfschritt innerhalb einer Revision zu integrieren. Die
Kombination von Data Science und explorativer Vorgehensmethodik verfgt ber grosses Potenzial, um Mehr- und
Neuigkeitswert zu generieren. Dieses Potenzial ermglicht
es der internen Revision, ihre Aufgabe im Rahmen der TLoD
wahrzunehmen.
n

Data Science and Big Data Analytics, John Wiley &


Sons; 2015, S.14. 6)Vgl. http://nosql-database.org.
7)Vgl. Mike Loukides, Big Data Now, OReilly
Radar, S.9. 8)Vgl. Mike Loukides, Big Data Now,
OReilly Radar, S.11. 9)In Anlehnung an Teradata
Enterprise Access for Hadoop, 2015, http://www.
teradata.com/Teradata-Enterprise-Access-for-Had

oop/?LangType=1033&LangSelect=true. 10)Thomas
H. Davenport, Harvard Business Review, October
2012, https://hbr.org/2012/10/data-scientist-the-sexiest-job-of-the-21st-century. 11)http://drewconway.com/zia/2013/3/26/the-data-science-venn-dia
gram.

E X P E R T F O C U S 2016|4

Das könnte Ihnen auch gefallen