SlideShare uma empresa Scribd logo
1 de 6
Baixar para ler offline
227
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
M A R I O K Ü N D I G
Durch die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft
werden riesige Mengen von Informationen generiert. Deshalb sieht sich die interne
Revision in der Wahl ihrer Prüfmethodik vor neue Herausforderungen gestellt. Der
Autor beschreibt Möglichkeiten, um die Analyse von Massendaten als Prüfschritt in-
nerhalb einer Revision zu integrieren.
DATA SCIENCE IN DER INTERNEN REVISION
Erfahrungen und Herausforderungen
1. EINLEITUNG
Dieser Beitrag beschreibt den Einsatz moderner Datenana-
lyse-Technologien durch die interne Revision. Mit der zu-
nehmenden Digitalisierung der Kommunikationskanäle
und der Kundenprozesse entsteht eine noch nie da gewesene
Datenmenge, die es zu erschliessen gilt. Die Anwendung ex-
plorativer Datenanalysen – ergänzend zu den bestehenden
Prüfmethoden – ist u. E. unverzichtbar und wird künftig an
Stellenwert zunehmen. Um die neuen Technologien und Me-
thoden nutzen zu können, wird Zugang zu entsprechender
Infrastruktur sowie statistisches und technisches Know-how
benötigt. Dies führt zu einem veränderten resp. erweiterten
Kompetenzprofil der Revisionsteams.
In der Datenanalyse werden folgende Begriffe unterschie-
den:
 Business Intelligence: Unter Business Intelligence werden
Tools und Verfahren verstanden, die operative und finan­
zielle Unternehmensdaten systematisch konsolidieren und
analysieren. Mithilfe von Business Intelligence werden Re-
ports und Cockpits generiert, die in der Tendenz standar-
disiert und vergangenheitsorientiert sind [1].
 Data Science: Mit Data Science ist die Gesamtheit aller Ver-
fahren und Technologien gemeint, die es ermöglichen, un-
terschiedliche Daten aus verschiedenen Quellen auszuwer-
ten. In der Tendenz erfolgen diese Tätigkeiten zukunftsori-
entiert und explorativ. Dabei werden mittels Data Mining
statistische Methoden und Algorithmen angewendet, um
aus den Daten verborgenes Wissen ableiten und Prognosen
vornehmenzukönnen.ZudemwerdenmithilfevonBigData
Analytics sich dauernd verändernde sowie unstrukturierte
Massendaten verarbeitet.
 Standardabfragen: Bei den Standardabfragen handelt es sich
um vorgefertigte Datenabfragen und Berichte, die kontinu-
ierlich ausgeführt, aufbereitet und verteilt werden.
 Ad-hoc-Abfragen: Ad-hoc-Abfragen werden auf spezifische
Fragestellungen hin vorgenommen und finden in der Regel
nur einmal genau so statt.
2. NOTWENDIGKEIT VON DATENANALYSEN
IN DER INTERNEN REVISION
Gemäss Standards des Institute of Internal Auditors (IIA-
Standards) sind die übergeordneten Prüfziele der internen
Revision die Verlässlichkeit der finanziellen Berichterstat-
tung, die Einhaltung von Gesetzen und Vorgaben der Unter-
nehmensführung sowie die Wirtschaftlichkeit und Wirk-
samkeit der Geschäftsprozesse. Seit 2013 ist die Erreichung
der strategischen Ziele als Prüfziel explizit aufgeführt [2].
Damit sieht sich die interne Revision zunehmend mit zu-
kunftsbezogenen Fragestellungen konfrontiert.
Um eine verlässliche Aussage über diese Prüfziele machen
zu können, kann die interne Revision eine Prüfung zufällig
gewählter Geschäftsfälle vornehmen (Stichprobe) oder eine
Vollerhebung sämtlicher Geschäftsvorfälle durchführen.
Die heutigen Geschäftstätigkeiten generieren durch ihre
automatisierten Prozesse und den damit verbundenen In­
formatiksystemen eine grosse Menge an Informationen.
Eine stichprobenartige Prüfung der Geschäftsvorfälle ge-
nügt oft nicht, um die Wirtschaftlichkeit der Geschäftspro-
zesse und die Angemessenheit des Ressourceneinsatzes be-
urteilen zu können. Stattdessen müssen die Informationen
aneinandergefügt und in ihrer Grundgesamtheit betrach-
tet werden. Eine vergangenheitsorientierte Prüfung, wie es
in der Buchprüfung der Fall ist, genügt bei operationellen
Revisionen oft nicht mehr. Es muss eine zukunftsorien-
tierte Aussage über die Erreichung der strategischen Ziele
gemacht werden können. Dazu müssen neue Wege einge-
schlagen werden, um aus Informationen Tendenzen erken-
nen und Prognosen ableiten zu können. Dolose Handlun-
gen lassen sich durch klassische Prüfungsansätze nur in
den seltensten Fällen fest­stellen – und wenn, dann meist
nur zufällig. Es besteht hingegen die Möglichkeit, mittels
erweiterter statistischer Methoden verborgene Handlungs-
MARIO KÜNDIG,
DIPL. ING. FH, CIA/CISA,
LEITER OPERATIONELLE
REVISION,
CSS VERSICHERUNG,
LUZERN,
MARIO.KUENDIG@CSS.CH
228
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
muster aufzuspüren, zu visualisieren und zielgerichtet zu
untersuchen.
Im Modell der Three Lines of Defense (TLoD) ist die interne
Revision die Third-Line-Funktion. Sie stellt somit die letzte
Verteidigungslinie dar, sollten Risiken und Gefahren die
vorgelagerten Linien durchbrechen. Erste Verteidigungsli-
nie ist das operative Management, zweite Verteidigungsli-
nie ist das Risikomanagement sowie Controlling- und Com-
pliance-Funktionen. Stützt sich die interne Revision in ihrer
Tätigkeit lediglich auf vorhandenes Wissen und auf beste-
hende Managementreports der First und Second Line, kann
sie ihre Funktion als Third Line nicht vollumfänglich wahr-
nehmen. Sie ist dann nur bedingt in der Lage, Kontroll­
lücken, Geschäftsrisiken und -potenziale festzustellen, die
nicht bereits durch die vorgelagerten Verteidigungslinien
identifiziertwordensind.DieinterneRevisionmussdeshalb
vermehrt in der Lage sein, die Unternehmensdaten mittels
Data Science auf neue Art und Weise zu kombinieren und zu-
kunftsbezogen zu analysieren.
3. DER EINSATZ VON BUSINESS INTELLIGENCE
IM VERSICHERUNGSUMFELD
Business Intelligence kann als Prozess betrachtet werden,
der Unternehmensdaten systematisch konsolidiert, analy-
siert und den Entscheidungsträgern zugänglich macht. Da­
bei gilt es drei Phasen zu berücksichtigen: 1. Extraktion der
Daten, 2. Analyse der Daten und 3. Bereitstellung der Daten
ineinerstrukturiertenForm.BeidererstenPhasewerdenim
sogenannten ETL-Prozess [3] (Extraction, Transformation,
Load) die operativen Bewegungsdaten aus den Backend-Sys-
temen extrahiert, transformiert und in ein Data Warehouse
überführt. Die zweite Phase kann als die Aktualisierung der
verschiedenen Cockpits, Dashboards und Standardreports
interpretiert werden. Die dritte Phase entspricht der Überfüh-
rung der Abfrageresultate in die Entscheidungsprozesse,
was der Aktualisierung und Verteilung der Management Re-
ports entspricht. Diese Prozesse erfolgen oft standardisiert.
Die Berichte sind vorgefertigt und erlauben wenig Inter­
aktion.
Die oben genannten Tätigkeiten entsprechen im Wesent­
lichen den Aufgaben der Einheiten der First Line, insbe­
sondere dem operativen und finanziellen Controlling. Hier
werden Betriebs- und Finanzkennzahlen multidimensional
zusammengestellt, aggregiert und der Geschäftsleitung zu-
gänglich gemacht. Auch Second-Line-of-Defense-Funktio-
nen bedienen sich für ihre Tätigkeiten der Business-Intelli-
gence-Berichte. So verfügen die Assurance-Stellen des inter-
nen Kontrollsystems (IKS) über Standardreports, um die
Einhaltung von Schlüsselkontrollen zu überprüfen. Beispiel
hierfür ist die Überprüfung der Einhaltung von Kompetenz-
ordnungen.
Der Third Line of Defense (interne Revision) stehen kaum
Standardreports und Dashboards zur Verfügung. Repetitive
Fragestellungen, die regelmässig dem Verwaltungsrat und
dem Prüfungsausschuss zugänglich gemacht werden, kom-
men selten vor. Als Ausnahme kann hier allenfalls Conti-
nuous Monitoring erwähnt werden, das gelegentlich zum
Einsatz kommt.
Eine besondere Bedeutung kommt den Ad-hoc-Abfragen
zu, die ergänzend zu den Standardabfragen situations- oder
problembezogen vorgenommen werden. In diesem Zusam-
menhang wird auch von OLAP (Online Analytical Proces-
sing) gesprochen. Ad-hoc-Abfragen erfolgen oft einmalig.
Die Abfragen werden entweder zielgerichtet vorgenommen,
entsprechend einer spezifischen Fragestellung oder eines
Hypothesentests,odersieerfolgenwenigerzielgerichtetund
sind explorativ, um sich verborgenen Zusammenhängen an-
zunähern. Für beide Ansätze kann ein multidimensionaler
Datenwürfel erstellt werden, der mittels klassischer Drill-
funktionen analysiert wird. Das Erstellen von Dashboards
undCockpitssiehtaufdenerstenBlicknachStandardreports
aus. Aufgrund flexibler Architekturen lassen sich auch Ad-
hoc-Cockpits erstellen, die nach ihrem Einsatz wieder ver-
worfen werden.
Ad-hoc-Datenabfragen werden auf allen Stufen der TLoD
angewendet, wobei sie in der First LoD im Vergleich zu den
Standardabfragen und Dashboards tendenziell weniger häu-
fig vorkommen. In der Second und Third LoD nehmen Ad-
hoc-Abfragen in der Häufigkeit und in der Bedeutung zu.
Abbildung 1: GRAD DER STANDARDISIERUNG
IM KONTEXT DES THREE-LINE-OF-DEFENSE-
MODELLS
Quelle: Eigene Darstellung
hoch
tief
Gradder
Standardisierung
1st Line 2nd Line 3rd Line
Ad-hoc-
Abfragen
Dashboard
Cockpits Reports
Abbildung 2: AGILITÄT BEI EXPLORATIVEN
ANALYSEN MITTELS AD-HOC-ABFRAGEN
Quelle: Eigene Darstellung
Design der Ad-hoc-Abfrage
Analyse der Abfrageresultate
Erkenntnisse
Antwortzeit
229
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
DATA SCIENCE IN DER INTERNEN REVISION
Abbildung 1 veranschaulicht die unterschiedlichen Ausprä-
gungen der Standardisierung von Abfragen und Reports im
TLoD-Modell.
Für die interne Revision sind Ad-hoc-Abfragen von funda-
mentaler Bedeutung. Die interne Revision kann dadurch
­Lücken schliessen und für die Unternehmung neues Wissen
generieren, das durch die Standardreports und Standard-
Dashboards nicht erschlossen wird. Durch die zyklische Ver-
feinerung von Ad-hoc-Abfragen entsteht ein explorativer Da-
tenanalyseprozess. Es werden immer wieder neue Erkennt-
nisse und daraus wiederum neue Fragestellungen generiert.
Dies ermöglicht der internen Revision, sich der Essenz von
Handlungsmustern und Geschäftsabläufen anzunähern.
Sackgassen und Richtungsänderungen müssen bei explora-
tiven Analysen einkalkuliert werden. Für den Erfolg des ex-
plorativen Analyseprozesses sind die Performance resp. die
kurze Antwortzeit der Ad-hoc-Abfragen sowie die Flexibili-
tätindenDatenarchitekturenentscheidend.Jeschnellersich
die Zyklen wiederholen, desto dynamischer und agiler kön-
nen neue Erkenntnisse in die nächste Abfrage einfliessen
und den Erkenntnis- und Lernprozess am Leben erhalten.
4. DAS ERWEITERTE POTENZIAL
VON DATA SCIENCE
Wie eingangs erläutert, wird unter Data Science die Ge-
samtheit aller Technologien und Methoden aus dem Data
Mining und Big Data verstanden. Mit Data Science wird das
Ziel verfolgt, aus den internen und externen Datenbestän-
den neues Wissen abzuleiten, das mit den traditionellen
Business-Intelligence-Plattformennichterschlossenwerden
kann. Dabei kommen erweiterte statistische Methoden zum
Einsatz. Insbesondere werden Regressionsanalysen ange-
wendet, um nicht offensichtliche Zusammenhänge entde-
cken zu können. Mittels Assoziations- und Clusteranalysen
werden Gruppen- und Ähnlichkeitsanalysen vorgenommen.
Outliers-Analysen dienen dem Aufspüren von Irregularitä-
ten und Spezialfällen. Während einer Revision können die
Resultate aus dem Data Mining als Ausgangsbasis für ge-
zielte Einzelfallprüfungen herangezogen werden. Man
« Mit Data Science wird das
Ziel verfolgt, aus den internen und
externen Datenbeständen
neues Wissen abzuleiten, das mit
den traditionellen Business-
Intelligence-Plattformen
nicht erschlossen werden kann.»
230
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
spricht auch von datengetriebenen Analysen. Ein wesentli-
ches Merkmal von Data Mining ist die Generierung von Hy-
pothesen während des Analyseprozesses. Eine andere wich-
tige Rolle im Data Mining spielt zudem die Visualisierung
der Resultate in Form von Grafen und Netzwerken. Dadurch
kann ein vertieftes Verständnis für die Zusammenhänge er-
langt werden. Das sogenannte Process Mining nimmt in der
operationellen Revision einen besonderen Stellenwert ein.
Dadurch lassen sich Prozessflüsse in ihrer Gesamtheit visu-
alisieren und analysieren. Durch die Digitalisierung insbe-
sondereinderFinanz-undVersicherungsbranche [4]werden
die Prozesse zunehmend automatisiert abgewickelt,wasden
Einsatz von Process Mining immer wichtiger macht.
Data Science unterscheidet sich im Vergleich zu Business
Intelligence durch den eher explorativen Analyseansatz. Zu­
dem richtet Data Science das Augenmerk vermehrt auf die
Zukunft und versucht, Prognosen vorzunehmen (Abbildung 3).
Wenn das Volumen und die Struktur der Datenmenge
nichtmehrmittraditionellenDatenbanksystemenbewältigt
werdenkönnen,kommenTechnologienausdemBereichvon
Big Data Analytics zum Einsatz. So kann beispielsweise im
Rahmen einer IT-Revision der Gesamtbestand der system-
technischen Logfiles – die mehrere Millionen unterschied-
lichster Einträge beinhalten können – auf Auffälligkeiten
hin untersucht werden. Diese Daten können nicht mehr in
relationalen Datenbanken gespeichert werden. In diesem
Zusammenhang wird auch von «NoSQL» gesprochen, wobei
SQL für Structured Query Language steht, die Sprache zur Defi-
nition von Datenstrukturen in relationalen Datenbanken.
Mit«NoSQL»istnicht«keinSQL»gemeint,sondern«nichtnur
Abbildung 3: DER UNTERSCHIED ZWISCHEN
BIG DATA UND BUSINESS INTELLIGENCE IN
BEZUG AUF DEN ANALYSEANSATZ UND
DESSEN ZIELORIENTIERUNG [5]
explorativ
Analyse-
ansatz
deskriptiv
Vergangenheit Zeit Zukunft
Data
Science
Business
Intelligence
Abbildung 4: BIG-DATA-ARCHITEKTUR DER CSS VERSICHERUNG [9]
Math
and Stats
Data
Mining
Business
Intelligence
Applikationen
Marketing
TOOLS
ENDBENUTZER
DISCOVERY PLATFORM
CSS DATA WAREHOUSE
DATA
PLATFORM
ACCESSMANAGEMOVE
Big-Data-Architektur
Management
Marketing
Frontend-
Benutzer
Kunden
Interne
Revision
Data
Scientists
Business-
Analysten
HADOOP
TERADATA DATABASE
TERADATA ASTER DATABASE
ERM
CRM
SCM
CEM
CALL
CENTER
Logs
Text
Social
Media
QUELLEN
« Data Science unterscheidet sich im
Vergleich zu Business Intelligence durch
den eher explorativen Analyseansatz.»
231
INTERNE REVISION
4 | 2016  EXPE RT FOCUS
DATA SCIENCE IN DER INTERNEN REVISION
SQL» oder «erweitertes SQL» [6]. In relationalen Datenbanken
liegt das Hauptaugenmerk auf der Datenkonsistenz und auf
der Datenmodellierung. Da durch den Einsatz von Big Data
die Datenstruktur oft nicht bekannt ist, wird auf ein starres
DatenmodellundaufeineabsoluteDatenkonsistenzverzich-
tet, weshalb auch von «eventual consistency» gesprochen
wird [7]. Um die notwendige Performance gewährleisten zu
können, werden die Daten auf mehrere Knoten in einem ver-
teilten Computersystem gespeichert und damit gezielt red-
undant gehalten. Die Abfragen können dadurch paralleli-
siert werden. Eine zentrale Rolle in Big Data Analytics spielt
der von Google entwickelte Suchalgorithmus namens Map-
Reduce [8]. Das Framework von Apache Hadoop kombiniert
MapReduce und verteilt Speichersysteme zu einer perfor-
manten und skalierbaren Big-Data-Umgebung. In Zusam-
menhang mit Big Data ist auch die In-Memory-Technologie
zu erwähnen. Hierbei werden ganze Datenbestände in den
temporären Speicher geladen, was aufwendige Leseprozesse
auf Festplatten nicht mehr nötig macht. Auch beim Einsatz
von In-Memory-Technologien wird das traditionelle Daten-
modell relationaler Datenbanken teilweise verworfen. Die
Datenbestände werden nicht (oder nur wenig) modelliert
und können weitgehend unverändert in den Speicher gela-
den werden. Die Daten werden komprimiert und können di-
rekt adressiert werden. Dies ermöglicht performantes Na­
vigieren und Filtern, zum Beispiel in Cockpits und Dash-
boards.
5. DIE NOTWENDIGE INFRASTRUKTUR
FÜR DATA SCIENCE
Die interne Revision kann als einer von mehreren Endbenut-
zern über einen Zugriff auf die Big-Data-Architektur der ei-
genen Unternehmung zugreifen. Im Folgenden wird bei-
spielhaft die Big-Data-Architektur der CSS Versicherung, eines
Schweizer Krankenversicherers, erläutert (Abbildung 4). Die
CSS Versicherung setzt Teradata Aster ein, was die Kombina-
tion von NoSQL-Datenbanken, klassischen Data-Ware­house-
Plattformen und massiv parallel arbeitenden SQL-Datenban-
ken ermöglicht. Auf der Discovery-Plattform können Data
Labs eingerichtet und mit einem einzigen Statement auf alle
drei Plattformen zugegriffen werden. Aster bietet Pfad-, As-
soziations- und Graph-Analysen, die auf dem MapReduce-
Algorithmus basieren. Genügen diese Methoden nicht, kön-
nen Statistiklösungen wie R oder SAS auf die Aster-Daten zu-
greifen. Auch spezialisierte Data-Mining-Anwendungen
wie RapidMiner oder Visualisierungssoftware wie Gephi
oder Fluxicon Disco lassen sich integrieren. Eine Kombina-
tion von Aster und In-Memory-Cockpits ist denkbar. Dabei
verschmelzen die Grenzen zwischen Business Intelligence,
Data Mining und Big Data.
6. DAS ERWEITERE KOMPETENZPROFIL
DER REVISIONSTEAMS
Die Anforderungen an die Kompetenzen der internen Revi-
sion sind bereits jetzt breit gefächert. Vertiefte Kenntnisse in
« Wenn das Volumen und die
Struktur der Datenmenge nicht mehr
mit traditionellen Datenbank-
systemen bewältigt werden kann,
kommen Technologien aus
dem Bereich von Big Data Analytics
zum Einsatz.»
232
INTERNE REVISION
EXPE RT FOCUS  2016 | 4
DATA SCIENCE IN DER INTERNEN REVISION
Finanzen, Betriebswirtschaft, Compliance, IT und der jewei-
ligen Branche sind notwendig. Als ob das nicht schon genug
wäre, wird sich mit der zunehmenden Datengetriebenheit
der Unternehmungen und der Gesellschaft die interne Revi-
sion auch Kompetenzen in Data Science aneignen müssen.
Aber nicht nur technisches und statistisches Know-how ist
gefragt. Um Data Science erfolgreich anwenden zu können,
benötigt es auch Soft Skills wie Neugier, Kreativität und
Kommunikationsfähigkeit. Tom Davenport, Professor an
der Harvard Business School, hat 2012 das Kompetenzprofil
eines Data Scientist wie folgt beschrieben: «… a hybrid of data
hacker,analyst,communicator,andtrustedadviser.Thecombination
is extremely powerful – and rare.» [10]
Da Data Science eine interdisziplinäre Wissenschaft ist,
kann sich das Potenzial nicht voll entfalten, wenn eine oder
mehrere Disziplinen wenig ausgeprägt sind oder vollstän-
dig fehlen. Abbildung 5 zeigt, dass die Kompetenzen Pro-
grammierung (Hacking Skills), Statistik und branchenspe-
zifischesresp.fachlichesKnow-hownotwendigsind,umden
Anforderung von Data Science gerecht zu werden.
Programmierkenntnisse werden deshalb benötigt, weil
die Extraktion der Daten aus den verschiedenen IT-Systemen
oft nicht standardisiert werden kann. Vor der Integration in
die Analyseumgebung müssen die Daten in den meisten Fäl-
len transformiert werden. Dafür müssen ETL-Scripts sowie
SQL- resp. NoSQL-Programme erstellt werden. Statistische
Methoden oder Simulationsalgorithmen sind in den statisti-
schen Softwarepaketen in den meisten Fällen ein integraler
Bestandteil des Funktionsumfangs. Die Analysen werden
dementsprechend durch die Tools geführt und unterstützt.
Nichtsdestoweniger muss für jedes Problem individuell die
richtigestatistischeMethodegewähltwerden,waseinigesan
Grundlagenkenntnissenerfordert.DieResultatemüssenauf
ihre statistische Relevanz hin überprüft und in den Gesamt-
kontext der Unternehmung und der Branche eingebettet
und interpretiert werden können. Da in den seltensten Fäl-
len ein Revisor über sämtliche oben genannten Kompeten-
zen verfügt, empfiehlt es sich, die Kompetenzen wenigstens
im Team resp. in der Gruppe verfügbar zu haben. Kann auch
das nicht gewährleistet werden, ist bei Bedarf ein Joint Audit
mit einem externen Data Scientist vorstellbar. In diesem Fall
begleitet der Data Scientist das Revisionsteam im Rahmen
eines Audits. Parallel zu den regulären Prüfhandlungen er-
folgt eine explorative Datenanalyse mit zyklischen Feedback-
schlaufen mit dem Revisionsteam und den revidierten Ein-
heiten.
7. FAZIT
Die fortschreitende Digitalisierung in der Finanz- und Versi-
cherungswirtschaft stellt die interne Revision vor neue Her-
ausforderungeninderWahlderPrüfmethodik.DataScience
bietet Mittel und Wege, um die Analyse von Datenmassen
als Prüfschritt innerhalb einer Revision zu integrieren. Die
Kombination von Data Science und explorativer Vorgehens-
methodik verfügt über grosses Potenzial, um Mehr- und
Neuigkeitswert zu generieren. Dieses Potenzial ermöglicht
es der internen Revision, ihre Aufgabe im Rahmen der TLoD
wahrzunehmen. n
Anmerkungen: 1) EMC, Data Science and Big
Data Analytics, John Wiley  Sons; 2015, S. 12.
2) IIA-IPPF-Standard 2120.A1. 3) EMC, Data Sci-
ence and Big Data Analytics, John Wiley  Sons;
2015, S. 28. 4) Prof. Dr. Peter Maas, Instituts für Ver-
sicherungswirtschaft der Universität St. Gallen, Big
Data in der Versicherungswirtschaft, 2014. 5) EMC,
Data Science and Big Data Analytics, John Wiley 
Sons; 2015, S. 14. 6) Vgl. http://nosql-database.org.
7) Vgl. Mike Loukides, Big Data Now, O’Reilly
Radar, S. 9. 8) Vgl. Mike Loukides, Big Data Now,
O’Reilly Radar, S. 11. 9) In Anlehnung an Teradata
Enterprise Access for Hadoop, 2015, http://www.
teradata.com/Teradata-Enterprise-Access-for-Had
oop/?LangType=1033LangSelect=true. 10) Thomas
H. Davenport, Harvard Business Review, October
2012, https://hbr.org/2012/10/data-scientist-the-se-
xiest-job-of-the-21st-century. 11) http://drewcon-
way.com/zia/2013/3/26/the-data-science-venn-dia
gram.
« Parallel zu den regulären
Prüfhandlungen erfolgt eine explorative
Datenanalyse mit zyklischen Feed-
back-schlaufen mit dem Revisionsteam
und den revidierten Einheiten.»
« Data Science bietet Mittel
und Wege, um die Analyse
von Datenmassen als Prüfschritt
innerhalb einer Revision zu
integrieren.»
Abbildung 5: DAS DATA-SCIENCE-KOMPETENZ-
MODELL NACH DREW CONWAY [11]
Data
Science
Machine
Learning
Danger
Zone
Hacking Skills Math and Statistics
Knowledge
Traditional
Research
Substantive
Expertise

Mais conteúdo relacionado

Destaque

Roman jakobson
Roman jakobsonRoman jakobson
Roman jakobsoninezviki
 
Advancing internal audit analytics
Advancing internal audit analytics Advancing internal audit analytics
Advancing internal audit analytics PwC
 
台中啾咪之旅
台中啾咪之旅台中啾咪之旅
台中啾咪之旅CIH Liou
 
전자도서관 이용하기
전자도서관 이용하기전자도서관 이용하기
전자도서관 이용하기kulibrary1
 
Keqkuptimet që i bart mosbesimi. albanian (shqip)
Keqkuptimet që i bart mosbesimi. albanian (shqip)Keqkuptimet që i bart mosbesimi. albanian (shqip)
Keqkuptimet që i bart mosbesimi. albanian (shqip)HarunyahyaAlbanian
 
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16Lamprini Magaliou
 
2016 alternativas terapéuticas para la urgencia hemorragica
2016 alternativas terapéuticas para la urgencia hemorragica2016 alternativas terapéuticas para la urgencia hemorragica
2016 alternativas terapéuticas para la urgencia hemorragicacursohemoderivados
 
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...François Piot
 
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)Otto Kekäläinen
 
Git und WordPress-Themes | WPCamp Berlin 2013
Git und WordPress-Themes | WPCamp Berlin 2013Git und WordPress-Themes | WPCamp Berlin 2013
Git und WordPress-Themes | WPCamp Berlin 2013KirstenSchelper
 
Präsentation im Rahmen des Live Event zur Accessbility Blog Parade
Präsentation im Rahmen des Live Event zur Accessbility Blog ParadePräsentation im Rahmen des Live Event zur Accessbility Blog Parade
Präsentation im Rahmen des Live Event zur Accessbility Blog ParadeRobert Lender
 

Destaque (17)

Power poesia_sil
Power poesia_silPower poesia_sil
Power poesia_sil
 
Roman jakobson
Roman jakobsonRoman jakobson
Roman jakobson
 
Advancing internal audit analytics
Advancing internal audit analytics Advancing internal audit analytics
Advancing internal audit analytics
 
Kako delati igre?
Kako delati igre?Kako delati igre?
Kako delati igre?
 
台中啾咪之旅
台中啾咪之旅台中啾咪之旅
台中啾咪之旅
 
전자도서관 이용하기
전자도서관 이용하기전자도서관 이용하기
전자도서관 이용하기
 
迎送礼仪1
迎送礼仪1迎送礼仪1
迎送礼仪1
 
Keqkuptimet që i bart mosbesimi. albanian (shqip)
Keqkuptimet që i bart mosbesimi. albanian (shqip)Keqkuptimet që i bart mosbesimi. albanian (shqip)
Keqkuptimet që i bart mosbesimi. albanian (shqip)
 
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16
Θεσσαλονίκη,ΔΑΡΑΗΣ ιωακειμ -Γ. Κολινδρού, 2015-16
 
2016 alternativas terapéuticas para la urgencia hemorragica
2016 alternativas terapéuticas para la urgencia hemorragica2016 alternativas terapéuticas para la urgencia hemorragica
2016 alternativas terapéuticas para la urgencia hemorragica
 
Talent Gallery 2016
Talent Gallery 2016Talent Gallery 2016
Talent Gallery 2016
 
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...
Arbres à Palabres avril 2016 - journal interne de Prêt à Partir par François ...
 
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)
Koodikerho opettaa lapsille ohjelmointia (Virtuaaliopetuksen päivät 2015)
 
Transformamos
TransformamosTransformamos
Transformamos
 
Git und WordPress-Themes | WPCamp Berlin 2013
Git und WordPress-Themes | WPCamp Berlin 2013Git und WordPress-Themes | WPCamp Berlin 2013
Git und WordPress-Themes | WPCamp Berlin 2013
 
Präsentation im Rahmen des Live Event zur Accessbility Blog Parade
Präsentation im Rahmen des Live Event zur Accessbility Blog ParadePräsentation im Rahmen des Live Event zur Accessbility Blog Parade
Präsentation im Rahmen des Live Event zur Accessbility Blog Parade
 
Technocles2010 3
Technocles2010 3Technocles2010 3
Technocles2010 3
 

Data Science in der Internen Revision - Mario Kündig - April 2016

  • 1. 227 INTERNE REVISION 4 | 2016  EXPE RT FOCUS M A R I O K Ü N D I G Durch die fortschreitende Digitalisierung in der Finanz- und Versicherungswirtschaft werden riesige Mengen von Informationen generiert. Deshalb sieht sich die interne Revision in der Wahl ihrer Prüfmethodik vor neue Herausforderungen gestellt. Der Autor beschreibt Möglichkeiten, um die Analyse von Massendaten als Prüfschritt in- nerhalb einer Revision zu integrieren. DATA SCIENCE IN DER INTERNEN REVISION Erfahrungen und Herausforderungen 1. EINLEITUNG Dieser Beitrag beschreibt den Einsatz moderner Datenana- lyse-Technologien durch die interne Revision. Mit der zu- nehmenden Digitalisierung der Kommunikationskanäle und der Kundenprozesse entsteht eine noch nie da gewesene Datenmenge, die es zu erschliessen gilt. Die Anwendung ex- plorativer Datenanalysen – ergänzend zu den bestehenden Prüfmethoden – ist u. E. unverzichtbar und wird künftig an Stellenwert zunehmen. Um die neuen Technologien und Me- thoden nutzen zu können, wird Zugang zu entsprechender Infrastruktur sowie statistisches und technisches Know-how benötigt. Dies führt zu einem veränderten resp. erweiterten Kompetenzprofil der Revisionsteams. In der Datenanalyse werden folgende Begriffe unterschie- den:  Business Intelligence: Unter Business Intelligence werden Tools und Verfahren verstanden, die operative und finan­ zielle Unternehmensdaten systematisch konsolidieren und analysieren. Mithilfe von Business Intelligence werden Re- ports und Cockpits generiert, die in der Tendenz standar- disiert und vergangenheitsorientiert sind [1].  Data Science: Mit Data Science ist die Gesamtheit aller Ver- fahren und Technologien gemeint, die es ermöglichen, un- terschiedliche Daten aus verschiedenen Quellen auszuwer- ten. In der Tendenz erfolgen diese Tätigkeiten zukunftsori- entiert und explorativ. Dabei werden mittels Data Mining statistische Methoden und Algorithmen angewendet, um aus den Daten verborgenes Wissen ableiten und Prognosen vornehmenzukönnen.ZudemwerdenmithilfevonBigData Analytics sich dauernd verändernde sowie unstrukturierte Massendaten verarbeitet.  Standardabfragen: Bei den Standardabfragen handelt es sich um vorgefertigte Datenabfragen und Berichte, die kontinu- ierlich ausgeführt, aufbereitet und verteilt werden.  Ad-hoc-Abfragen: Ad-hoc-Abfragen werden auf spezifische Fragestellungen hin vorgenommen und finden in der Regel nur einmal genau so statt. 2. NOTWENDIGKEIT VON DATENANALYSEN IN DER INTERNEN REVISION Gemäss Standards des Institute of Internal Auditors (IIA- Standards) sind die übergeordneten Prüfziele der internen Revision die Verlässlichkeit der finanziellen Berichterstat- tung, die Einhaltung von Gesetzen und Vorgaben der Unter- nehmensführung sowie die Wirtschaftlichkeit und Wirk- samkeit der Geschäftsprozesse. Seit 2013 ist die Erreichung der strategischen Ziele als Prüfziel explizit aufgeführt [2]. Damit sieht sich die interne Revision zunehmend mit zu- kunftsbezogenen Fragestellungen konfrontiert. Um eine verlässliche Aussage über diese Prüfziele machen zu können, kann die interne Revision eine Prüfung zufällig gewählter Geschäftsfälle vornehmen (Stichprobe) oder eine Vollerhebung sämtlicher Geschäftsvorfälle durchführen. Die heutigen Geschäftstätigkeiten generieren durch ihre automatisierten Prozesse und den damit verbundenen In­ formatiksystemen eine grosse Menge an Informationen. Eine stichprobenartige Prüfung der Geschäftsvorfälle ge- nügt oft nicht, um die Wirtschaftlichkeit der Geschäftspro- zesse und die Angemessenheit des Ressourceneinsatzes be- urteilen zu können. Stattdessen müssen die Informationen aneinandergefügt und in ihrer Grundgesamtheit betrach- tet werden. Eine vergangenheitsorientierte Prüfung, wie es in der Buchprüfung der Fall ist, genügt bei operationellen Revisionen oft nicht mehr. Es muss eine zukunftsorien- tierte Aussage über die Erreichung der strategischen Ziele gemacht werden können. Dazu müssen neue Wege einge- schlagen werden, um aus Informationen Tendenzen erken- nen und Prognosen ableiten zu können. Dolose Handlun- gen lassen sich durch klassische Prüfungsansätze nur in den seltensten Fällen fest­stellen – und wenn, dann meist nur zufällig. Es besteht hingegen die Möglichkeit, mittels erweiterter statistischer Methoden verborgene Handlungs- MARIO KÜNDIG, DIPL. ING. FH, CIA/CISA, LEITER OPERATIONELLE REVISION, CSS VERSICHERUNG, LUZERN, MARIO.KUENDIG@CSS.CH
  • 2. 228 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION muster aufzuspüren, zu visualisieren und zielgerichtet zu untersuchen. Im Modell der Three Lines of Defense (TLoD) ist die interne Revision die Third-Line-Funktion. Sie stellt somit die letzte Verteidigungslinie dar, sollten Risiken und Gefahren die vorgelagerten Linien durchbrechen. Erste Verteidigungsli- nie ist das operative Management, zweite Verteidigungsli- nie ist das Risikomanagement sowie Controlling- und Com- pliance-Funktionen. Stützt sich die interne Revision in ihrer Tätigkeit lediglich auf vorhandenes Wissen und auf beste- hende Managementreports der First und Second Line, kann sie ihre Funktion als Third Line nicht vollumfänglich wahr- nehmen. Sie ist dann nur bedingt in der Lage, Kontroll­ lücken, Geschäftsrisiken und -potenziale festzustellen, die nicht bereits durch die vorgelagerten Verteidigungslinien identifiziertwordensind.DieinterneRevisionmussdeshalb vermehrt in der Lage sein, die Unternehmensdaten mittels Data Science auf neue Art und Weise zu kombinieren und zu- kunftsbezogen zu analysieren. 3. DER EINSATZ VON BUSINESS INTELLIGENCE IM VERSICHERUNGSUMFELD Business Intelligence kann als Prozess betrachtet werden, der Unternehmensdaten systematisch konsolidiert, analy- siert und den Entscheidungsträgern zugänglich macht. Da­ bei gilt es drei Phasen zu berücksichtigen: 1. Extraktion der Daten, 2. Analyse der Daten und 3. Bereitstellung der Daten ineinerstrukturiertenForm.BeidererstenPhasewerdenim sogenannten ETL-Prozess [3] (Extraction, Transformation, Load) die operativen Bewegungsdaten aus den Backend-Sys- temen extrahiert, transformiert und in ein Data Warehouse überführt. Die zweite Phase kann als die Aktualisierung der verschiedenen Cockpits, Dashboards und Standardreports interpretiert werden. Die dritte Phase entspricht der Überfüh- rung der Abfrageresultate in die Entscheidungsprozesse, was der Aktualisierung und Verteilung der Management Re- ports entspricht. Diese Prozesse erfolgen oft standardisiert. Die Berichte sind vorgefertigt und erlauben wenig Inter­ aktion. Die oben genannten Tätigkeiten entsprechen im Wesent­ lichen den Aufgaben der Einheiten der First Line, insbe­ sondere dem operativen und finanziellen Controlling. Hier werden Betriebs- und Finanzkennzahlen multidimensional zusammengestellt, aggregiert und der Geschäftsleitung zu- gänglich gemacht. Auch Second-Line-of-Defense-Funktio- nen bedienen sich für ihre Tätigkeiten der Business-Intelli- gence-Berichte. So verfügen die Assurance-Stellen des inter- nen Kontrollsystems (IKS) über Standardreports, um die Einhaltung von Schlüsselkontrollen zu überprüfen. Beispiel hierfür ist die Überprüfung der Einhaltung von Kompetenz- ordnungen. Der Third Line of Defense (interne Revision) stehen kaum Standardreports und Dashboards zur Verfügung. Repetitive Fragestellungen, die regelmässig dem Verwaltungsrat und dem Prüfungsausschuss zugänglich gemacht werden, kom- men selten vor. Als Ausnahme kann hier allenfalls Conti- nuous Monitoring erwähnt werden, das gelegentlich zum Einsatz kommt. Eine besondere Bedeutung kommt den Ad-hoc-Abfragen zu, die ergänzend zu den Standardabfragen situations- oder problembezogen vorgenommen werden. In diesem Zusam- menhang wird auch von OLAP (Online Analytical Proces- sing) gesprochen. Ad-hoc-Abfragen erfolgen oft einmalig. Die Abfragen werden entweder zielgerichtet vorgenommen, entsprechend einer spezifischen Fragestellung oder eines Hypothesentests,odersieerfolgenwenigerzielgerichtetund sind explorativ, um sich verborgenen Zusammenhängen an- zunähern. Für beide Ansätze kann ein multidimensionaler Datenwürfel erstellt werden, der mittels klassischer Drill- funktionen analysiert wird. Das Erstellen von Dashboards undCockpitssiehtaufdenerstenBlicknachStandardreports aus. Aufgrund flexibler Architekturen lassen sich auch Ad- hoc-Cockpits erstellen, die nach ihrem Einsatz wieder ver- worfen werden. Ad-hoc-Datenabfragen werden auf allen Stufen der TLoD angewendet, wobei sie in der First LoD im Vergleich zu den Standardabfragen und Dashboards tendenziell weniger häu- fig vorkommen. In der Second und Third LoD nehmen Ad- hoc-Abfragen in der Häufigkeit und in der Bedeutung zu. Abbildung 1: GRAD DER STANDARDISIERUNG IM KONTEXT DES THREE-LINE-OF-DEFENSE- MODELLS Quelle: Eigene Darstellung hoch tief Gradder Standardisierung 1st Line 2nd Line 3rd Line Ad-hoc- Abfragen Dashboard Cockpits Reports Abbildung 2: AGILITÄT BEI EXPLORATIVEN ANALYSEN MITTELS AD-HOC-ABFRAGEN Quelle: Eigene Darstellung Design der Ad-hoc-Abfrage Analyse der Abfrageresultate Erkenntnisse Antwortzeit
  • 3. 229 INTERNE REVISION 4 | 2016  EXPE RT FOCUS DATA SCIENCE IN DER INTERNEN REVISION Abbildung 1 veranschaulicht die unterschiedlichen Ausprä- gungen der Standardisierung von Abfragen und Reports im TLoD-Modell. Für die interne Revision sind Ad-hoc-Abfragen von funda- mentaler Bedeutung. Die interne Revision kann dadurch ­Lücken schliessen und für die Unternehmung neues Wissen generieren, das durch die Standardreports und Standard- Dashboards nicht erschlossen wird. Durch die zyklische Ver- feinerung von Ad-hoc-Abfragen entsteht ein explorativer Da- tenanalyseprozess. Es werden immer wieder neue Erkennt- nisse und daraus wiederum neue Fragestellungen generiert. Dies ermöglicht der internen Revision, sich der Essenz von Handlungsmustern und Geschäftsabläufen anzunähern. Sackgassen und Richtungsänderungen müssen bei explora- tiven Analysen einkalkuliert werden. Für den Erfolg des ex- plorativen Analyseprozesses sind die Performance resp. die kurze Antwortzeit der Ad-hoc-Abfragen sowie die Flexibili- tätindenDatenarchitekturenentscheidend.Jeschnellersich die Zyklen wiederholen, desto dynamischer und agiler kön- nen neue Erkenntnisse in die nächste Abfrage einfliessen und den Erkenntnis- und Lernprozess am Leben erhalten. 4. DAS ERWEITERTE POTENZIAL VON DATA SCIENCE Wie eingangs erläutert, wird unter Data Science die Ge- samtheit aller Technologien und Methoden aus dem Data Mining und Big Data verstanden. Mit Data Science wird das Ziel verfolgt, aus den internen und externen Datenbestän- den neues Wissen abzuleiten, das mit den traditionellen Business-Intelligence-Plattformennichterschlossenwerden kann. Dabei kommen erweiterte statistische Methoden zum Einsatz. Insbesondere werden Regressionsanalysen ange- wendet, um nicht offensichtliche Zusammenhänge entde- cken zu können. Mittels Assoziations- und Clusteranalysen werden Gruppen- und Ähnlichkeitsanalysen vorgenommen. Outliers-Analysen dienen dem Aufspüren von Irregularitä- ten und Spezialfällen. Während einer Revision können die Resultate aus dem Data Mining als Ausgangsbasis für ge- zielte Einzelfallprüfungen herangezogen werden. Man « Mit Data Science wird das Ziel verfolgt, aus den internen und externen Datenbeständen neues Wissen abzuleiten, das mit den traditionellen Business- Intelligence-Plattformen nicht erschlossen werden kann.»
  • 4. 230 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION spricht auch von datengetriebenen Analysen. Ein wesentli- ches Merkmal von Data Mining ist die Generierung von Hy- pothesen während des Analyseprozesses. Eine andere wich- tige Rolle im Data Mining spielt zudem die Visualisierung der Resultate in Form von Grafen und Netzwerken. Dadurch kann ein vertieftes Verständnis für die Zusammenhänge er- langt werden. Das sogenannte Process Mining nimmt in der operationellen Revision einen besonderen Stellenwert ein. Dadurch lassen sich Prozessflüsse in ihrer Gesamtheit visu- alisieren und analysieren. Durch die Digitalisierung insbe- sondereinderFinanz-undVersicherungsbranche [4]werden die Prozesse zunehmend automatisiert abgewickelt,wasden Einsatz von Process Mining immer wichtiger macht. Data Science unterscheidet sich im Vergleich zu Business Intelligence durch den eher explorativen Analyseansatz. Zu­ dem richtet Data Science das Augenmerk vermehrt auf die Zukunft und versucht, Prognosen vorzunehmen (Abbildung 3). Wenn das Volumen und die Struktur der Datenmenge nichtmehrmittraditionellenDatenbanksystemenbewältigt werdenkönnen,kommenTechnologienausdemBereichvon Big Data Analytics zum Einsatz. So kann beispielsweise im Rahmen einer IT-Revision der Gesamtbestand der system- technischen Logfiles – die mehrere Millionen unterschied- lichster Einträge beinhalten können – auf Auffälligkeiten hin untersucht werden. Diese Daten können nicht mehr in relationalen Datenbanken gespeichert werden. In diesem Zusammenhang wird auch von «NoSQL» gesprochen, wobei SQL für Structured Query Language steht, die Sprache zur Defi- nition von Datenstrukturen in relationalen Datenbanken. Mit«NoSQL»istnicht«keinSQL»gemeint,sondern«nichtnur Abbildung 3: DER UNTERSCHIED ZWISCHEN BIG DATA UND BUSINESS INTELLIGENCE IN BEZUG AUF DEN ANALYSEANSATZ UND DESSEN ZIELORIENTIERUNG [5] explorativ Analyse- ansatz deskriptiv Vergangenheit Zeit Zukunft Data Science Business Intelligence Abbildung 4: BIG-DATA-ARCHITEKTUR DER CSS VERSICHERUNG [9] Math and Stats Data Mining Business Intelligence Applikationen Marketing TOOLS ENDBENUTZER DISCOVERY PLATFORM CSS DATA WAREHOUSE DATA PLATFORM ACCESSMANAGEMOVE Big-Data-Architektur Management Marketing Frontend- Benutzer Kunden Interne Revision Data Scientists Business- Analysten HADOOP TERADATA DATABASE TERADATA ASTER DATABASE ERM CRM SCM CEM CALL CENTER Logs Text Social Media QUELLEN « Data Science unterscheidet sich im Vergleich zu Business Intelligence durch den eher explorativen Analyseansatz.»
  • 5. 231 INTERNE REVISION 4 | 2016  EXPE RT FOCUS DATA SCIENCE IN DER INTERNEN REVISION SQL» oder «erweitertes SQL» [6]. In relationalen Datenbanken liegt das Hauptaugenmerk auf der Datenkonsistenz und auf der Datenmodellierung. Da durch den Einsatz von Big Data die Datenstruktur oft nicht bekannt ist, wird auf ein starres DatenmodellundaufeineabsoluteDatenkonsistenzverzich- tet, weshalb auch von «eventual consistency» gesprochen wird [7]. Um die notwendige Performance gewährleisten zu können, werden die Daten auf mehrere Knoten in einem ver- teilten Computersystem gespeichert und damit gezielt red- undant gehalten. Die Abfragen können dadurch paralleli- siert werden. Eine zentrale Rolle in Big Data Analytics spielt der von Google entwickelte Suchalgorithmus namens Map- Reduce [8]. Das Framework von Apache Hadoop kombiniert MapReduce und verteilt Speichersysteme zu einer perfor- manten und skalierbaren Big-Data-Umgebung. In Zusam- menhang mit Big Data ist auch die In-Memory-Technologie zu erwähnen. Hierbei werden ganze Datenbestände in den temporären Speicher geladen, was aufwendige Leseprozesse auf Festplatten nicht mehr nötig macht. Auch beim Einsatz von In-Memory-Technologien wird das traditionelle Daten- modell relationaler Datenbanken teilweise verworfen. Die Datenbestände werden nicht (oder nur wenig) modelliert und können weitgehend unverändert in den Speicher gela- den werden. Die Daten werden komprimiert und können di- rekt adressiert werden. Dies ermöglicht performantes Na­ vigieren und Filtern, zum Beispiel in Cockpits und Dash- boards. 5. DIE NOTWENDIGE INFRASTRUKTUR FÜR DATA SCIENCE Die interne Revision kann als einer von mehreren Endbenut- zern über einen Zugriff auf die Big-Data-Architektur der ei- genen Unternehmung zugreifen. Im Folgenden wird bei- spielhaft die Big-Data-Architektur der CSS Versicherung, eines Schweizer Krankenversicherers, erläutert (Abbildung 4). Die CSS Versicherung setzt Teradata Aster ein, was die Kombina- tion von NoSQL-Datenbanken, klassischen Data-Ware­house- Plattformen und massiv parallel arbeitenden SQL-Datenban- ken ermöglicht. Auf der Discovery-Plattform können Data Labs eingerichtet und mit einem einzigen Statement auf alle drei Plattformen zugegriffen werden. Aster bietet Pfad-, As- soziations- und Graph-Analysen, die auf dem MapReduce- Algorithmus basieren. Genügen diese Methoden nicht, kön- nen Statistiklösungen wie R oder SAS auf die Aster-Daten zu- greifen. Auch spezialisierte Data-Mining-Anwendungen wie RapidMiner oder Visualisierungssoftware wie Gephi oder Fluxicon Disco lassen sich integrieren. Eine Kombina- tion von Aster und In-Memory-Cockpits ist denkbar. Dabei verschmelzen die Grenzen zwischen Business Intelligence, Data Mining und Big Data. 6. DAS ERWEITERE KOMPETENZPROFIL DER REVISIONSTEAMS Die Anforderungen an die Kompetenzen der internen Revi- sion sind bereits jetzt breit gefächert. Vertiefte Kenntnisse in « Wenn das Volumen und die Struktur der Datenmenge nicht mehr mit traditionellen Datenbank- systemen bewältigt werden kann, kommen Technologien aus dem Bereich von Big Data Analytics zum Einsatz.»
  • 6. 232 INTERNE REVISION EXPE RT FOCUS  2016 | 4 DATA SCIENCE IN DER INTERNEN REVISION Finanzen, Betriebswirtschaft, Compliance, IT und der jewei- ligen Branche sind notwendig. Als ob das nicht schon genug wäre, wird sich mit der zunehmenden Datengetriebenheit der Unternehmungen und der Gesellschaft die interne Revi- sion auch Kompetenzen in Data Science aneignen müssen. Aber nicht nur technisches und statistisches Know-how ist gefragt. Um Data Science erfolgreich anwenden zu können, benötigt es auch Soft Skills wie Neugier, Kreativität und Kommunikationsfähigkeit. Tom Davenport, Professor an der Harvard Business School, hat 2012 das Kompetenzprofil eines Data Scientist wie folgt beschrieben: «… a hybrid of data hacker,analyst,communicator,andtrustedadviser.Thecombination is extremely powerful – and rare.» [10] Da Data Science eine interdisziplinäre Wissenschaft ist, kann sich das Potenzial nicht voll entfalten, wenn eine oder mehrere Disziplinen wenig ausgeprägt sind oder vollstän- dig fehlen. Abbildung 5 zeigt, dass die Kompetenzen Pro- grammierung (Hacking Skills), Statistik und branchenspe- zifischesresp.fachlichesKnow-hownotwendigsind,umden Anforderung von Data Science gerecht zu werden. Programmierkenntnisse werden deshalb benötigt, weil die Extraktion der Daten aus den verschiedenen IT-Systemen oft nicht standardisiert werden kann. Vor der Integration in die Analyseumgebung müssen die Daten in den meisten Fäl- len transformiert werden. Dafür müssen ETL-Scripts sowie SQL- resp. NoSQL-Programme erstellt werden. Statistische Methoden oder Simulationsalgorithmen sind in den statisti- schen Softwarepaketen in den meisten Fällen ein integraler Bestandteil des Funktionsumfangs. Die Analysen werden dementsprechend durch die Tools geführt und unterstützt. Nichtsdestoweniger muss für jedes Problem individuell die richtigestatistischeMethodegewähltwerden,waseinigesan Grundlagenkenntnissenerfordert.DieResultatemüssenauf ihre statistische Relevanz hin überprüft und in den Gesamt- kontext der Unternehmung und der Branche eingebettet und interpretiert werden können. Da in den seltensten Fäl- len ein Revisor über sämtliche oben genannten Kompeten- zen verfügt, empfiehlt es sich, die Kompetenzen wenigstens im Team resp. in der Gruppe verfügbar zu haben. Kann auch das nicht gewährleistet werden, ist bei Bedarf ein Joint Audit mit einem externen Data Scientist vorstellbar. In diesem Fall begleitet der Data Scientist das Revisionsteam im Rahmen eines Audits. Parallel zu den regulären Prüfhandlungen er- folgt eine explorative Datenanalyse mit zyklischen Feedback- schlaufen mit dem Revisionsteam und den revidierten Ein- heiten. 7. FAZIT Die fortschreitende Digitalisierung in der Finanz- und Versi- cherungswirtschaft stellt die interne Revision vor neue Her- ausforderungeninderWahlderPrüfmethodik.DataScience bietet Mittel und Wege, um die Analyse von Datenmassen als Prüfschritt innerhalb einer Revision zu integrieren. Die Kombination von Data Science und explorativer Vorgehens- methodik verfügt über grosses Potenzial, um Mehr- und Neuigkeitswert zu generieren. Dieses Potenzial ermöglicht es der internen Revision, ihre Aufgabe im Rahmen der TLoD wahrzunehmen. n Anmerkungen: 1) EMC, Data Science and Big Data Analytics, John Wiley Sons; 2015, S. 12. 2) IIA-IPPF-Standard 2120.A1. 3) EMC, Data Sci- ence and Big Data Analytics, John Wiley Sons; 2015, S. 28. 4) Prof. Dr. Peter Maas, Instituts für Ver- sicherungswirtschaft der Universität St. Gallen, Big Data in der Versicherungswirtschaft, 2014. 5) EMC, Data Science and Big Data Analytics, John Wiley Sons; 2015, S. 14. 6) Vgl. http://nosql-database.org. 7) Vgl. Mike Loukides, Big Data Now, O’Reilly Radar, S. 9. 8) Vgl. Mike Loukides, Big Data Now, O’Reilly Radar, S. 11. 9) In Anlehnung an Teradata Enterprise Access for Hadoop, 2015, http://www. teradata.com/Teradata-Enterprise-Access-for-Had oop/?LangType=1033LangSelect=true. 10) Thomas H. Davenport, Harvard Business Review, October 2012, https://hbr.org/2012/10/data-scientist-the-se- xiest-job-of-the-21st-century. 11) http://drewcon- way.com/zia/2013/3/26/the-data-science-venn-dia gram. « Parallel zu den regulären Prüfhandlungen erfolgt eine explorative Datenanalyse mit zyklischen Feed- back-schlaufen mit dem Revisionsteam und den revidierten Einheiten.» « Data Science bietet Mittel und Wege, um die Analyse von Datenmassen als Prüfschritt innerhalb einer Revision zu integrieren.» Abbildung 5: DAS DATA-SCIENCE-KOMPETENZ- MODELL NACH DREW CONWAY [11] Data Science Machine Learning Danger Zone Hacking Skills Math and Statistics Knowledge Traditional Research Substantive Expertise