MARIO KNDIG
1. EINLEITUNG
Dieser Beitrag beschreibt den Einsatz moderner Datenanalyse-Technologien durch die interne Revision. Mit der zunehmenden Digitalisierung der Kommunikationskanle
und der Kundenprozesse entsteht eine noch nie da gewesene
Datenmenge, die es zu erschliessen gilt. Die Anwendung explorativer Datenanalysen ergnzend zu den bestehenden
Prfmethoden ist u.E. unverzichtbar und wird knftig an
Stellenwert zunehmen. Um die neuen Technologien und Methoden nutzen zu knnen, wird Zugang zu entsprechender
Infrastruktur sowie statistisches und technisches Know-how
bentigt. Dies fhrt zu einem vernderten resp. erweiterten
Kompetenzprofil der Revisionsteams.
In der Datenanalyse werden folgende Begriffe unterschieden:
Business Intelligence: Unter Business Intelligence werden
Tools und Verfahren verstanden, die operative und finan
zielle Unternehmensdaten systematisch konsolidieren und
analysieren. Mithilfe von Business Intelligence werden Reports und Cockpits generiert, die in der Tendenz standardisiert und vergangenheitsorientiert sind[1].
Data Science: Mit Data Science ist die Gesamtheit aller Verfahren und Technologien gemeint, die es ermglichen, unterschiedliche Daten aus verschiedenen Quellen auszuwerten. In der Tendenz erfolgen diese Ttigkeiten zukunftsorientiert und explorativ. Dabei werden mittels Data Mining
statistische Methoden und Algorithmen angewendet, um
aus den Daten verborgenes Wissen ableiten und Prognosen
vornehmen zu knnen. Zudem werden mithilfe von Big Data
Analytics sich dauernd verndernde sowie unstrukturierte
Massendaten verarbeitet.
MARIO KNDIG,
DIPL.ING.FH, CIA/CISA,
LEITER OPERATIONELLE
REVISION,
CSS VERSICHERUNG,
LUZERN,
MARIO.KUENDIG@CSS.CH
4|2016 E X P E R T F O C U S
227
I NTE R N E R EVI S I O N
228
Grad der
Standardisierung
Ad-hocAbfragen
Dashboard
Cockpits Reports
tief
1st Line
2nd Line
3rd Line
Erkenntnisse
Antwortzeit
E X P E R T F O C U S 2016|4
Abbildung1 veranschaulicht die unterschiedlichen Ausprgungen der Standardisierung von Abfragen und Reports im
TLoD-Modell.
Fr die interne Revision sind Ad-hoc-Abfragen von fundamentaler Bedeutung. Die interne Revision kann dadurch
Lcken schliessen und fr die Unternehmung neues Wissen
generieren, das durch die Standardreports und StandardDashboards nicht erschlossen wird. Durch die zyklische Verfeinerung von Ad-hoc-Abfragen entsteht ein explorativer Datenanalyseprozess. Es werden immer wieder neue Erkenntnisse und daraus wiederum neue Fragestellungen generiert.
Dies ermglicht der internen Revision, sich der Essenz von
Handlungsmustern und Geschftsablufen anzunhern.
Sackgassen und Richtungsnderungen mssen bei explorativen Analysen einkalkuliert werden. Fr den Erfolg des explorativen Analyseprozesses sind die Performance resp. die
kurze Antwortzeit der Ad-hoc-Abfragen sowie die Flexibilitt in den Datenarchitekturen entscheidend. Je schneller sich
die Zyklen wiederholen, desto dynamischer und agiler knnen neue Erkenntnisse in die nchste Abfrage einfliessen
und den Erkenntnis- und Lernprozess am Leben erhalten.
4. DAS ERWEITERTE POTENZIAL
VON DATA SCIENCE
Wie eingangs erlutert, wird unter Data Science die Gesamtheit aller Technologien und Methoden aus dem Data
4|2016 E X P E R T F O C U S
I NTE R N E R EVI S I O N
Mining und Big Data verstanden. Mit Data Science wird das
Ziel verfolgt, aus den internen und externen Datenbestnden neues Wissen abzuleiten, das mit den traditionellen
Business-Intelligence-Plattformen nicht erschlossen werden
229
I NTE R N E R EVI S I O N
Dadurch lassen sich Prozessflsse in ihrer Gesamtheit visualisieren und analysieren. Durch die Digitalisierung insbesondere in der Finanz- und Versicherungsbranche[4] werden
die Prozesse zunehmend automatisiert abgewickelt, was den
Einsatz von Process Mining immer wichtiger macht.
Data Science unterscheidet sich im Vergleich zu Business
Intelligence durch den eher explorativen Analyseansatz. Zu
dem richtet Data Science das Augenmerk vermehrt auf die
Zukunft und versucht, Prognosen vorzunehmen (Abbildung3).
Wenn das Volumen und die Struktur der Datenmenge
nicht mehr mit traditionellen Datenbanksystemen bewltigt
Business
Intelligence
deskriptiv
Vergangenheit
Zeit
Zukunft
spricht auch von datengetriebenen Analysen. Ein wesentliches Merkmal von Data Mining ist die Generierung von Hypothesen whrend des Analyseprozesses. Eine andere wichtige Rolle im Data Mining spielt zudem die Visualisierung
der Resultate in Form von Grafen und Netzwerken. Dadurch
kann ein vertieftes Verstndnis fr die Zusammenhnge erlangt werden. Das sogenannte Process Mining nimmt in der
operationellen Revision einen besonderen Stellenwert ein.
Big-Data-Architektur
ERM
MOVE
MANAGE
ACCESS
Marketing
CRM
SCM
CEM
Text
Social
Media
QUELLEN
230
Kunden
TERADATA DATABASE
Logs
HADOOP
Marketing
Applikationen
DATA
PLATFORM
CALL
CENTER
Management
DISCOVERY PLATFORM
Business
Intelligence
Data
Mining
Math
and Stats
TOOLS
FrontendBenutzer
BusinessAnalysten
Data
Scientists
Interne
Revision
ENDBENUTZER
E X P E R T F O C U S 2016|4
4|2016 E X P E R T F O C U S
I NTE R N E R EVI S I O N
Datenbestnde werden nicht (oder nur wenig) modelliert
und knnen weitgehend unverndert in den Speicher geladen werden. Die Daten werden komprimiert und knnen direkt adressiert werden. Dies ermglicht performantes Na
vigieren und Filtern, zum Beispiel in Cockpits und Dashboards.
5. DIE NOTWENDIGE INFRASTRUKTUR
FR DATA SCIENCE
Die interne Revision kann als einer von mehreren Endbenutzern ber einen Zugriff auf die Big-Data-Architektur der eigenen Unternehmung zugreifen. Im Folgenden wird beispielhaft die Big-Data-Architektur der CSS Versicherung, eines
Schweizer Krankenversicherers, erlutert (Abbildung4). Die
CSS Versicherung setzt Teradata Aster ein, was die Kombination von NoSQL-Datenbanken, klassischen Data-WarehousePlattformen und massiv parallel arbeitenden SQL-Datenbanken ermglicht. Auf der Discovery-Plattform knnen Data
Labs eingerichtet und mit einem einzigen Statement auf alle
drei Plattformen zugegriffen werden. Aster bietet Pfad-, Assoziations- und Graph-Analysen, die auf dem MapReduceAlgorithmus basieren. Gengen diese Methoden nicht, knnen Statistiklsungen wie R oder SAS auf die Aster-Daten zugreifen. Auch spezialisierte Data-Mining-Anwendungen
wie RapidMiner oder Visualisierungssoftware wie Gephi
oder Fluxicon Disco lassen sich integrieren. Eine Kombination von Aster und In-Memory-Cockpits ist denkbar. Dabei
verschmelzen die Grenzen zwischen Business Intelligence,
Data Mining und Big Data.
6. DAS ERWEITERE KOMPETENZPROFIL
DER REVISIONSTEAMS
Die Anforderungen an die Kompetenzen der internen Revision sind bereits jetzt breit gefchert. Vertiefte Kenntnisse in
231
I NTE R N E R EVI S I O N
Finanzen, Betriebswirtschaft, Compliance, IT und der jeweiligen Branche sind notwendig. Als ob das nicht schon genug
wre, wird sich mit der zunehmenden Datengetriebenheit
der Unternehmungen und der Gesellschaft die interne Revi-
232
Machine
Learning
Hacking Skills
Data
Science
Danger
Zone
Traditional
Research
Substantive
Expertise
oop/?LangType=1033&LangSelect=true. 10)Thomas
H. Davenport, Harvard Business Review, October
2012, https://hbr.org/2012/10/data-scientist-the-sexiest-job-of-the-21st-century. 11)http://drewconway.com/zia/2013/3/26/the-data-science-venn-dia
gram.
E X P E R T F O C U S 2016|4