SlideShare uma empresa Scribd logo
1 de 47
Baixar para ler offline
DWH-Modellierung mit Data Vault 
in Kombination mit ODI 12c - Erfahrungen aus der Praxis 
Claus Jordan 
Senior Consultant 
BASEL BERN BRUGG LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 
2014 © Trivadis 
Ansicht > Kopf und Fusszeile 
DOAG-Konferenz 2014 
1
Zu meiner Person 
CLAUS 
JORDAN 
SENIOR 
CONSULTANT 
BUSINESS 
INTELLIGENCE 
 bei Trivadis seit 2003 
 Themengebiete 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
DOAG-Konferenz 2014 
2 
 Data Warehouse, Architektur und ETL 
 Analyse und Reporting 
 Technologien 
 Oracle RDMBS 
 Oracle OLAP 
 Oracle BI Enterprise Edition
Unser Unternehmen 
Trivadis ist führend bei der IT-Beratung, der Systemintegration, 
dem Solution-Engineering und der Erbringung von IT-Services 
mit Fokussierung auf und Technologien 
im D-A-CH-Raum. 
Unsere Leistungen erbringen wir aus den strategischen Geschäftsfeldern: 
Trivadis Services übernimmt den korrespondierenden Betrieb 
Ihrer IT Systeme. 
2014 © Trivadis 
Trivadis – das Unternehmen 
DOAG-Konferenz 2014 
B E T R I E B 
3
Mit über 600 IT- und Fachexperten bei Ihnen vor Ort 
2014 © Trivadis 
4 
12 Trivadis Niederlassungen mit 
über 600 Mitarbeitenden 
200 Service Level Agreements 
Mehr als 4'000 Trainingsteilnehmer 
Forschungs- und Entwicklungs-budget: 
CHF 5.0 Mio. / EUR 4.0 
Mio. 
Finanziell unabhängig und 
nachhaltig profitabel 
Erfahrung aus mehr als 1'900 
Projekten pro Jahr bei über 800 
Kunden 
Stand 12/2013 
Hamburg 
Düsseldorf 
Frankfurt 
Freiburg 
München 
Wien 
Basel 
Bern Zürich 
Lausanne 
4 
Stuttgart 
Trivadis – das Unternehmen 
DOAG-Konferenz 2014 
4 
Brugg
AGENDA 
 Von den Anforderungen zum Data Vault Datenmodell 
 Anforderungen 
 Datenmodell 
 Historisierung in Data Vault 
 Bewertung von Data Vault 
 ETL-Logik und -Prozesse mit ODI 12c 
 Topology 
 Models und Mappings 
 ODI Knowledge-Module (Code Templates) 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Von den Anforderungen 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
zum Data Vault 
Datenmodell 
Systemlandschaft  Anforderungen
Systemlandschaft „Heute“ 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Flatfile (*.csv ) 
oder 
ODBC-Verbindung 
Unterschiedliche 
Schnittstellen 
OLTP (Operative Non HR-Systeme) 
OLTP (Operative HR-Systeme) OLAP (HR-Planungs- / 
Reportingssysteme) 
OLTP (Operative HR-Drittsysteme) 
Extrakte 
für Werkreporting
Systemlandschaft „Morgen“ 
OLTP (Operative Non HR-Systeme) 
OLTP (Operative HR-Systeme) OLAP (HR-Planungs- / 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Reportingssysteme) 
OLTP (Operative HR-Drittsysteme) 
HR 
Data Warehouse 
Datenbank: 
Oracle 11g oder 12c 
Tools: 
Oracle Data Integrator 12c 
Oracle SQL Developer 
Oracle SQL Data Modeler
Konzept und Datenmodell 
HR Data Warehouse – Konzept (Teil 1) 
 Aufbau und Technologie 
 Vorgehensweise 
HR Data Warehouse – Datenmodell (Teil 2) 
 ER Diagramm 
 Physische Datenmodelle 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
HR 
Data Warehouse 
Stage Cleanse Core Mart
Data Vault Modelling 
von Dan Linstedt (1990-2000) 
Die zentrale Komponente des Data Warehouses – in unserer Architektur das Core – wird bei 
diesem Modellierungsansatz als Data Vault bezeichnet. Ein Data Vault besteht aus drei 
verschiedenen Strukturen, die als Tabellen implementiert werden: 
Hubs enthalten ausschliesslich die Business Keys der fachlichen Entitäten sowie einen 
künstlichen Schlüssel, der von Links und Satellites referenziert wird. Beschreibende Attribute 
werden nie in Hubs abgespeichert, sondern in Satellites ausgelagert. 
Links beschreiben Beziehungen zwischen Entitätstypen (Hubs) und erlauben generell die 
Definition von n-zu-n- Beziehungen zwischen verschiedenen Hubs. Auf eine fachliche 
Abbildung der Kardinalitäten (1:1, 1:n, n:n) wie in der klassischen relationalen 
Datenmodellierung wird hier verzichtet. 
Satellites umfassen sämtliche beschreibenden Attribute von Entitätstypen oder Beziehungen 
in versionierter Form. Ein Satellite wird via Fremdschlüsselbeziehung einem Hub oder einem 
Link zugeordnet. Pro Hub/Link können mehrere Satellites definiert werden. 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Umfang und Ziel des Prototyps 
2014 © Trivadis 
Umfang 
 Für eine begrenzte Anzahl von Entitäten und Beziehungen soll mit Hilfe 
des ETL Werkzeugs ODI ein Prototyp für das HR Data Warehouse 
erstellt werden. 
 Für für die zentrale Schicht (Core) soll die Modellierungsmethode 
Data Vault zum Einsatz kommen. 
Ziel 
Es soll am praktischen Beispiel gezeigt werden, 
 dass ODI das richtige Werkzeug und 
 dass Data Vault für die aktuellen und zukünftigen Anforderung 
geeignet ist. 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Von den Anforderungen 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
zum Data Vault 
Datenmodell 
Datenmodell
Ausgangspunkt ist das logisches Datenmodell .. 
.. zum Beispiel für die Objekte 
Mitarbeiter + Adresse(n) 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
HR DWH - Physisches Datenmodell 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Stage Cleanse Core Data Mart 
? ? ? ?
1. Core (Data Vault Methode) 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Stage Cleanse Core Data Mart 
? ? ? ?
2. Cleanse 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Stage Cleanse Core Data Mart 
? ? ? ?
2014 © Trivadis 
3. Stage 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Cleanse Core Data Mart 
? ? ? 
Stage 
?
4. Data Mart 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Cleanse Core Data Mart 
? ? ? 
Stage
HR DWH - Physisches Datenmodell 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
MA.csv 
LOC.csv 
HR Data Warehouse 
Stage Cleanse Core Data Mart
Bewertung von Data Vault 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Bewertungskriterien für das Datenmodell 
 Anzahl Tabellen / Anzahl ETL-Prozesse 
 ETL - Komplexität für das 
 Laden aus Cleanse in Core 
 Laden aus Core in Data Marts 
 Erweiterbarkeit („Agile BI“) 
 Datenredundanz / Datenvolumen 
 Parallelisierbarkeit 
 Abfragen von historisch korrekten Zeitreihen (Nachvollziehbarkeit) 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Bewertung von Data Vault (1) 
Methode 
Kritieren  mit Data Vault 
Anzahl Tabellen und 
ETL-Prozesse 
Relativ Hoch  
.. weil pro Entität zwei oder mehr Tabellen, plus eine oder mehrere Tabelle für 
jede Beziehung zwischen Entitäten, notwendig sind. Dies ermöglicht jedoch, 
gerade bei „breiten Entitäten“ (z.B. Mitarbeiter), eine gezielte Gruppierung von 
Attributen und erleichtert somit die Übersicht. Pro Tabelle resultiert ein ETL-Prozess. 
2014 © Trivadis 
ETL-Komplexität 
für das Laden aus 
Cleanse in 
Core 
Gering ☺ 
.. zumal keine performanceintensiven Updates notwendig sind. D.h. Datensätze 
werden nur dann eingefügt, wenn tatsächlich Änderungen an den betreffenden 
Attributen vorkommen. 
ETL-Komplexität 
für das Laden aus 
Core in 
Data Marts 
Mittel bis hoch  
.. aufgrund der Transformation vom normalisierten in das denormalisierte 
Datenmodell (Star- / Snowflake), und vor allen Dingen wegen der Bildung von 
neuen Gültigkeitsintervallen bei der Verknüpfung von unabhängig versionierten 
Stammdatenentitäten. Diese Logik kann beispielsweise in Datenbank-Views 
implementiert werden. Dadurch ist der Zugriff ähnlich einfach wie im 
dimensionalen Datenmodell und stellt somit kein KO-Kriterium dar. 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Bewertung von Data Vault (2) 
Methode 
Kritieren  mit Data Vault 
2014 © Trivadis 
Erweiterbarkeit 
(„Agile BI“) 
Hoch ☺ 
.. aufgrund fehlender Referenzen zwischen Entitäten, die jeweils unanabhängig 
voneinander erweitert oder angepaßt werden können. 
Datenredundanz / 
Datenvolumen 
Gering ☺ 
.. durch Normalisierung (geringe Datenredundanz) und Splittung der Attribute, 
welche zu einer einer Hub-Table gehören, in mehrere Satellitentabellen 
Parallelisierbarkeit Hoch ☺ 
.. sowohl bei der Implementierung als auch im laufenden Betrieb beim Laden 
der Daten. Sämtliche Hub-Tables können parallel implementiert / geladen 
werden. Dasselbe gilt für alle Link-Tables und für die Satellite-Tables (jeweils 
Voraussetzung sind die Hub-Tables) 
Historisierung / 
Nachvollziehbarkeit 
Sehr hoch ☺ 
.. weil standardmäßig in den Satellite-Tables der DWH-Schicht Core jede 
Änderung historisiert wird und sei sie noch so gering. 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
ETL-Logik und 
ETL-Prozesse mit ODI 12c
2014 © Trivadis 
Themen 
Wie funktioniert all dies im Prototyp? 
 ODI Mappings 
 ETL-Logik für Core-Mappings (Data Vault) 
 ODI Knowledge-Module (Code-Templates) 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
ODI - Designer 
2014 © Trivadis 
„Models“: 
 Reengineering von Dateien und 
Datenbankobjekten basierend auf 
der logischen Architektur (Tab „Topology“) 
„Projects“: 
 ODI Mappings (ETL-Strecken) 
 Knowledge-Module (generische 
Ladestrategien) 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Beispiel für ein ODI Mapping 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Mappings für verschiedene Aufgaben 
 Stage-Mappings: Laden aus verschiedenen Datenquelle in die Stage- 
Tables. Attribute der Stage-Tables vom Typ VARCHAR2(4000), 
Truncate-Insert 
 Cleanse-Mappings: Filterung (where), Verknüpfung (Join), 
Mengenoperationen (Union, Minus, ..), Transformation (concat, nvl, 
to_date, ...), Truncate-Insert 
 Core-Mappings: Vergleichen und ggf. Historisieren (Merge, Insert). 
Updates und Deletes sollten möglichst vermieden werden! 
 Mart-Mappings: Joins, Aggregation, Kalkulation, Stichtagstabellen (pro 
Data Mart sehr individuell) 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Core-Mappings für Data Vault (3 Typen) 
2014 © Trivadis 
Mappings für 
 Hub-Tables: 
Welche Datensätze sind neu? 
Diese Datensätze einfügen (Insert) 
 Link-Tables: 
Lookup zu den Hub-Tables 
Welche Datensätze sind neu? 
Diese Datensätze einfügen (Insert) 
 Satellite-Tables: 
Lookup zur Hub-Table bzw. zu den Link-Tables 
Welche Datensätze sind neu oder haben sich geändert (Dabei werden 
nur die Attribute der zu ladenden Satellite-Tabelle berücksichtigt)? 
Diese Datensätze einfügen (Insert) 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
ETL Logik für Hub-Tables 
Cleanse-Table MA 
PERS_ID NAME 
1006 Maier 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
Cleanse-Table MA 
PERS_ID NAME 
1006 Mayer 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
t1 
t 
• Änderungen von beschreibenden Attributen haben 
keine Auswirkung auf Hub-Tables 
t2
ETL Logik für Hub-Tables 
Cleanse-Table MA 
PERS_ID NAME 
1006 Maier 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
Cleanse-Table MA 
PERS_ID NAME 
1006 Mayer 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
t1 
t2 
t 
INSERT INTO 
SELECT 
FROM 
WHERE 
MA_H (PERS_ID, LOAD_DATE) 
cls.PERS_ID, SYSDATE 
MA cls 
NOT EXISTS 
(SELECT * FROM MA_H hub 
WHERE hub.PERS_ID = cls.PERS_ID
ODI-Mapping für Hub-Tables 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Knowledge Module für Hub-Tables 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
ETL Logik für Link-Tables 
Cleanse-Table MA_RE 
PERS_ID REGION 
1006 N 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 19.09.2014 
Hub-Table RE_H 
SK REGION LOAD_DATE 
10 N 01.01.2000 
20 S 01.01.2000 
Cleanse-Table MA_RE 
PERS_ID REGION 
1006 S 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 19.09.2014 
301 1 20 21.09.2014 ? 
t1 
t 
Ist das richtig so? 
• Ja. Wenn aber diese alte Beziehung als „Ungültig“ oder „Nicht Aktuell“ gesetzt 
werden soll, so wird für diese Link-Table eine Satellite-Table benötigt 
t2
ETL Logik für Link-Tables 
INSERT INTO MA_RE_L (SK_MA, SK_RE, LOAD_DATE) 
SELECT 
MA_H.SK SK_MA, RE_H.SK SK_RE, SYSDATE 
FROM 
MA_RE cls 
JOIN MA_H ON (cls.PERS_ID = MA_H.PERS_ID) 
JOIN RE_H ON (cls.REGION = RE_H.REGION) 
Cleanse-Table MA_RE 
PERS_ID REGION 
1006 N 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Hub-Table MA_H 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 19.09.2014 
Hub-Table RE_H 
SK REGION LOAD_DATE 
10 N 01.01.2000 
20 S 01.01.2000 
Cleanse-Table MA_RE 
PERS_ID REGION 
1006 S 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 19.09.2014 
301 1 20 21.09.2014 ? 
t1 
t2 
t 
WHERE 
NOT EXISTS 
(SELECT * FROM MA_RE_L link 
WHERE link.SK_MA = MA_H.SK AND 
link.SK_RE = RE_H.SK)
ETL Logik für Sat-Tables (4HUB) 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier N 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Mayer S 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
t1 
t 
Hub-Table MA 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
• Ein Insert in die Sat-Table erfolgt nur, wenn sich ein Attribut ändert! 
t3 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014 
1 Mayer 21.09.2014 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier S 
t2 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014
ETL Logik für Sat-Tables (4HUB) 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier N 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Mayer S 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
t1 
t3 
t 
Hub-Table MA 
SK PERS_ID LOAD_DATE 
1 1006 19.09.2014 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014 
1 Mayer 21.09.2014 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier S 
t2 
Sat-Table MA_S 
SK_HUB NAME LOAD_DATE 
1 Maier 19.09.2014 
INSERT INTO 
SELECT 
FROM 
MA_S (SK_HUB, NAME, LOAD_DATE) 
sat.SK_HUB cls.NAME, SYSDATE 
MA_H hub 
JOIN MA_REG cls ON (hub.PERS_ID = cls.PERS_ID) 
JOIN MA_S sat ON (hub.SK = sat.SK_HUB) 
WHERE 
sat.LOAD_DATE = (SELECT MAX(LOAD_DATE) 
FROM MA_S 
WHERE SK_HUB = sat.SK_HUB) 
AND 
(cls.NAME != sat.NAME OR 
cls.BIRTHDAY != sat.BIRTHDAY OR 
...)
ETL Logik für Sat-Tables (4LINK) 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier N 
Cleanse-Table MA_RE 
PERS_ID NAME REGION 
1006 Maier S 
2014 © Trivadis 
Sat-Table MA_RE_S 
SK_LNK OUT_OF_DATE LOAD_DATE 
300 21.09.2014 20.09.2014 
301 21.09.2014 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 20.09.2014 
301 1 20 21.09.2014 
t1 
t 
• Wenn die Beziehung zu Region „N“ ab t2 nicht mehr gültig ist, so wird in einem 
speziellen Attribut das entsprechende Datum eingetragen. 
• Hier ist also ein Update unumgänglich 
t2 
Link-Table MA_RE_L 
SK SK_MA SK_RE LOAD_DATE 
300 1 10 20.09.2014 
Sat-Table MA_RE_S 
SK_LNK OUT_OF_DATE LOAD_DATE 
300 20.09.2014
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Knowledge-Module 
(Code Templates) 
Funktionsweise
Typen von Knowledge-Modulen (KM‘s) 
Es gibt unterschiedliche KM-Typen für 
 Reverse-Engineering (RKM‘s) 
 Loading (LKM‘s) 
 Check (CKM‘s) 
 Integration (IKM‘s) 
 .. 
KM‘s für verschiedenste Technologien werden mitgeliefert 
 Kopieren und anpassen 
KM‘s können auch von Grund auf neu entwickelt werden 
Einem Mapping werden ein oder mehrere KM‘s zugeordnet 
 z.B. LKM, IKM und CKM 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
2014 © Trivadis 
KM (1) 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
2014 © Trivadis 
KM (2) 
Ein KM besteht aus Tasks (Einzelschritte), die nacheinander abgearbeitet 
werden, z.B. 
1. Truncate Target Table 
2. Deltadetection 
3. Insert Target Table 
4. Update Target Table 
5. Commit 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014 
Zusammenfassung
Zusammenfassung 
 Durch die mehrschichtige Architektur des HR Data Warehouse sind 
Datenströme und Transformationen sehr gut nachvollziehbar. Außerdem 
sind die Mappings dadurch wenig komplex. 
 Das Data Vault Datenmodell ist ideal .. 
 .. wenn eine lückenlose Historisierung der Daten erwünscht ist 
 .. wenn wenig Datenredundanz und damit hohe Datenkonsistenz 
notwendig ist 
 .. wenn der Aufwand für das Hinzufügen neuer Entitäten, Attribute und 
Beziehungen möglichst klein sein soll 
 .. wenn rückwirkende Änderung von Stamm- und Bewegungsdaten 
jederzeit möglich sein sollen 
 .. Wenn parallel entwickelt werden soll 
 Mit den Knowledge Modulen von ODI können alle möglichen 
Ladestrategien und Sonderfälle effizient abgebildet werden 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Weitere Informationen 
 ODI 12c Trainings 2. HJ 2014 
http://www.trivadis.com/training/oracle-training/ 
business-intelligence/ 
oracle-data-integrator-workshop-fuer-praktiker-o-odi.html 
 Trivadis Whitepaper 
„Comparison of Data Modeling 
Methods for a 
Core Data Warehouse” 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Fragen und Antworten... 
Claus Jordan 
Senior Consultant 
Stuttgart 
Tel. +49-162-295 96 43 
claus.jordan@trivadis.com 
BASEL BERN BRUGG LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
21.11.2014
Trivadis an der DOAG 
Ebene 3 - gleich neben der Rolltreppe 
Wir freuen uns auf Ihren Besuch. 
Denn mit Trivadis gewinnen Sie immer. 
2014 © Trivadis 
DWH-Modellierung mit Data Vault und ODI 
DOAG-Konferenz 2014

Mais conteúdo relacionado

Mais procurados

Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...
Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...
Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...Trivadis
 
Data Vault Vor- und Nachteile
Data Vault Vor- und NachteileData Vault Vor- und Nachteile
Data Vault Vor- und NachteileTorsten Glunde
 
Wie sicher sind Database Links? DOAG BI Konfernenz München.
Wie sicher sind Database Links? DOAG BI Konfernenz München.Wie sicher sind Database Links? DOAG BI Konfernenz München.
Wie sicher sind Database Links? DOAG BI Konfernenz München.Trivadis
 
Data Virtualization - Supernova
Data Virtualization - SupernovaData Virtualization - Supernova
Data Virtualization - SupernovaTorsten Glunde
 
Caching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerCaching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerAndreas Buckenhofer
 
Raus aus dem Data Vault - Virtualisierung und Logical Warheouse
Raus aus dem Data Vault - Virtualisierung und Logical WarheouseRaus aus dem Data Vault - Virtualisierung und Logical Warheouse
Raus aus dem Data Vault - Virtualisierung und Logical WarheouseTorsten Glunde
 
DWH Modernisierung mit Data Lake, Lab und Governance
DWH Modernisierung mit Data Lake, Lab und GovernanceDWH Modernisierung mit Data Lake, Lab und Governance
DWH Modernisierung mit Data Lake, Lab und GovernanceOPITZ CONSULTING Deutschland
 
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH Konferenz
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH KonferenzPartitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH Konferenz
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH KonferenzTrivadis
 
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...Business Intelligence Research
 
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...Business Intelligence Research
 
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider
Modellierung agiler Data Warehouses mit Data Vault Dani SchniderModellierung agiler Data Warehouses mit Data Vault Dani Schnider
Modellierung agiler Data Warehouses mit Data Vault Dani SchniderDésirée Pfister
 
Data Vault DWH Automation
Data Vault DWH AutomationData Vault DWH Automation
Data Vault DWH AutomationTorsten Glunde
 
Dv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationDv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationTorsten Glunde
 
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...Business Intelligence Research
 
Data Warehouse (DWH) with MySQL
Data Warehouse (DWH) with MySQLData Warehouse (DWH) with MySQL
Data Warehouse (DWH) with MySQLFromDual GmbH
 
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...Markus Flechtner
 
2016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver042016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver04Ulrich Schmidt
 
Datenbank-Selbstverwaltung - Das Oracle-Data-Dictionary
Datenbank-Selbstverwaltung - Das Oracle-Data-DictionaryDatenbank-Selbstverwaltung - Das Oracle-Data-Dictionary
Datenbank-Selbstverwaltung - Das Oracle-Data-DictionaryMarkus Flechtner
 
Middleware Basics für den DBA
Middleware Basics für den DBAMiddleware Basics für den DBA
Middleware Basics für den DBATrivadis
 

Mais procurados (20)

Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...
Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...
Indexierungsstrategie im Data Warehouse - Zwischen Albtraum und optimaler Per...
 
Data Vault Vor- und Nachteile
Data Vault Vor- und NachteileData Vault Vor- und Nachteile
Data Vault Vor- und Nachteile
 
Wie sicher sind Database Links? DOAG BI Konfernenz München.
Wie sicher sind Database Links? DOAG BI Konfernenz München.Wie sicher sind Database Links? DOAG BI Konfernenz München.
Wie sicher sind Database Links? DOAG BI Konfernenz München.
 
Data Virtualization - Supernova
Data Virtualization - SupernovaData Virtualization - Supernova
Data Virtualization - Supernova
 
Caching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI ServerCaching: In-Memory Column Store oder im BI Server
Caching: In-Memory Column Store oder im BI Server
 
Raus aus dem Data Vault - Virtualisierung und Logical Warheouse
Raus aus dem Data Vault - Virtualisierung und Logical WarheouseRaus aus dem Data Vault - Virtualisierung und Logical Warheouse
Raus aus dem Data Vault - Virtualisierung und Logical Warheouse
 
DWH Modernisierung mit Data Lake, Lab und Governance
DWH Modernisierung mit Data Lake, Lab und GovernanceDWH Modernisierung mit Data Lake, Lab und Governance
DWH Modernisierung mit Data Lake, Lab und Governance
 
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH Konferenz
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH KonferenzPartitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH Konferenz
Partitionierung im DWH: Erkenntnisse aus der Praxis - Oracle DWH Konferenz
 
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...
Analytical Sandboxing: Data-Warehousing und Datenanalysen im Spannungsfeld zw...
 
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...
Weitere Dezentralisierung der BI - mehr Selbständigkeit der Fachbereiche durc...
 
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider
Modellierung agiler Data Warehouses mit Data Vault Dani SchniderModellierung agiler Data Warehouses mit Data Vault Dani Schnider
Modellierung agiler Data Warehouses mit Data Vault Dani Schnider
 
Data Vault DWH Automation
Data Vault DWH AutomationData Vault DWH Automation
Data Vault DWH Automation
 
Dv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automationDv 20 sdlc_oss_automation
Dv 20 sdlc_oss_automation
 
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...
Beyond SAP - Effektive Nutzung von Business Content durch In-Memory-OLAP und ...
 
Data Warehouse (DWH) with MySQL
Data Warehouse (DWH) with MySQLData Warehouse (DWH) with MySQL
Data Warehouse (DWH) with MySQL
 
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...
Die Datenbank ist nicht immer Schuld - Gründe warum Datenbank-Migration schei...
 
2016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver042016 pcc presse_01_dcc_ferro_archivierung_ver04
2016 pcc presse_01_dcc_ferro_archivierung_ver04
 
Datenbank-Selbstverwaltung - Das Oracle-Data-Dictionary
Datenbank-Selbstverwaltung - Das Oracle-Data-DictionaryDatenbank-Selbstverwaltung - Das Oracle-Data-Dictionary
Datenbank-Selbstverwaltung - Das Oracle-Data-Dictionary
 
Amazon Redshift
Amazon RedshiftAmazon Redshift
Amazon Redshift
 
Middleware Basics für den DBA
Middleware Basics für den DBAMiddleware Basics für den DBA
Middleware Basics für den DBA
 

Destaque

Data Vault Architektur
Data Vault ArchitekturData Vault Architektur
Data Vault ArchitekturTorsten Glunde
 
Introduction to Data Vault Modeling
Introduction to Data Vault ModelingIntroduction to Data Vault Modeling
Introduction to Data Vault ModelingKent Graziano
 
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM)
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM) Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM)
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM) oose
 
Ethische Entscheidungskompetenz
Ethische EntscheidungskompetenzEthische Entscheidungskompetenz
Ethische EntscheidungskompetenzMichael Olschimke
 
Agile Data Mining with Data Vault 2.0 (english)
Agile Data Mining with Data Vault 2.0 (english)Agile Data Mining with Data Vault 2.0 (english)
Agile Data Mining with Data Vault 2.0 (english)Michael Olschimke
 
OER - HIntergründe, Möglichkeiten, Initiativen
OER - HIntergründe, Möglichkeiten, InitiativenOER - HIntergründe, Möglichkeiten, Initiativen
OER - HIntergründe, Möglichkeiten, InitiativenSandra Schön (aka Schoen)
 
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2Tanel Poder
 
Die gute Forschungsfrage - und wie man dazu kommt
Die gute Forschungsfrage - und wie man dazu kommt Die gute Forschungsfrage - und wie man dazu kommt
Die gute Forschungsfrage - und wie man dazu kommt Sandra Schön (aka Schoen)
 
Oracle Performance Tuning Fundamentals
Oracle Performance Tuning FundamentalsOracle Performance Tuning Fundamentals
Oracle Performance Tuning FundamentalsEnkitec
 
Agile Data Engineering - Intro to Data Vault Modeling (2016)
Agile Data Engineering - Intro to Data Vault Modeling (2016)Agile Data Engineering - Intro to Data Vault Modeling (2016)
Agile Data Engineering - Intro to Data Vault Modeling (2016)Kent Graziano
 
Data Vault 2.0: Using MD5 Hashes for Change Data Capture
Data Vault 2.0: Using MD5 Hashes for Change Data CaptureData Vault 2.0: Using MD5 Hashes for Change Data Capture
Data Vault 2.0: Using MD5 Hashes for Change Data CaptureKent Graziano
 
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre Karriere
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre KarriereORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre Karriere
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre KarriereORAYLIS GmbH
 

Destaque (13)

Visual Data Vault
Visual Data VaultVisual Data Vault
Visual Data Vault
 
Data Vault Architektur
Data Vault ArchitekturData Vault Architektur
Data Vault Architektur
 
Introduction to Data Vault Modeling
Introduction to Data Vault ModelingIntroduction to Data Vault Modeling
Introduction to Data Vault Modeling
 
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM)
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM) Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM)
Modellierung im Spannungsfeld von agilen Vorgehensweisen (z.B. SCRUM)
 
Ethische Entscheidungskompetenz
Ethische EntscheidungskompetenzEthische Entscheidungskompetenz
Ethische Entscheidungskompetenz
 
Agile Data Mining with Data Vault 2.0 (english)
Agile Data Mining with Data Vault 2.0 (english)Agile Data Mining with Data Vault 2.0 (english)
Agile Data Mining with Data Vault 2.0 (english)
 
OER - HIntergründe, Möglichkeiten, Initiativen
OER - HIntergründe, Möglichkeiten, InitiativenOER - HIntergründe, Möglichkeiten, Initiativen
OER - HIntergründe, Möglichkeiten, Initiativen
 
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2
Tanel Poder - Troubleshooting Complex Oracle Performance Issues - Part 2
 
Die gute Forschungsfrage - und wie man dazu kommt
Die gute Forschungsfrage - und wie man dazu kommt Die gute Forschungsfrage - und wie man dazu kommt
Die gute Forschungsfrage - und wie man dazu kommt
 
Oracle Performance Tuning Fundamentals
Oracle Performance Tuning FundamentalsOracle Performance Tuning Fundamentals
Oracle Performance Tuning Fundamentals
 
Agile Data Engineering - Intro to Data Vault Modeling (2016)
Agile Data Engineering - Intro to Data Vault Modeling (2016)Agile Data Engineering - Intro to Data Vault Modeling (2016)
Agile Data Engineering - Intro to Data Vault Modeling (2016)
 
Data Vault 2.0: Using MD5 Hashes for Change Data Capture
Data Vault 2.0: Using MD5 Hashes for Change Data CaptureData Vault 2.0: Using MD5 Hashes for Change Data Capture
Data Vault 2.0: Using MD5 Hashes for Change Data Capture
 
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre Karriere
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre KarriereORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre Karriere
ORAYLIS Business Intelligence - Gestalten Sie mit uns Ihre Karriere
 

Semelhante a DWH-Modellierung mit Data Vault

Big Data Konnektivität
Big Data KonnektivitätBig Data Konnektivität
Big Data KonnektivitätTrivadis
 
Mobile meets NoSQL
Mobile meets NoSQLMobile meets NoSQL
Mobile meets NoSQLJan Steemann
 
Cloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenCloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenMagnus Pfeffer
 
SAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfSAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfCazLP
 
04 Datenintegration und Verwaltung
04 Datenintegration und Verwaltung04 Datenintegration und Verwaltung
04 Datenintegration und Verwaltungklickandbau
 
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesDas modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesOPITZ CONSULTING Deutschland
 
OPAL - Open Data Portal Germany
OPAL - Open Data Portal GermanyOPAL - Open Data Portal Germany
OPAL - Open Data Portal Germanyadrianwilke
 
Data Mining und OLAP
Data Mining und OLAPData Mining und OLAP
Data Mining und OLAPmurat9393
 
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)Trivadis
 
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02Gunther Pippèrr
 
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13OPITZ CONSULTING Deutschland
 
Einführung in nosql // ArangoDB mit Symfony 2
Einführung in nosql // ArangoDB mit Symfony 2Einführung in nosql // ArangoDB mit Symfony 2
Einführung in nosql // ArangoDB mit Symfony 2ArangoDB Database
 
SAP Datashpere - von Bits und Bites zu Widgets und Charts
SAP Datashpere - von Bits und Bites zu Widgets und ChartsSAP Datashpere - von Bits und Bites zu Widgets und Charts
SAP Datashpere - von Bits und Bites zu Widgets und ChartsIBsolution GmbH
 
Automatisierung im DWH - Sich das Leben erleichern mit dem ODI
Automatisierung im DWH - Sich das Leben erleichern mit dem ODIAutomatisierung im DWH - Sich das Leben erleichern mit dem ODI
Automatisierung im DWH - Sich das Leben erleichern mit dem ODIOPITZ CONSULTING Deutschland
 
APEX für den Oracle DBA
APEX für den Oracle DBAAPEX für den Oracle DBA
APEX für den Oracle DBANiels de Bruijn
 
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?Trivadis
 
Überblick Power BI Tools
Überblick Power BI ToolsÜberblick Power BI Tools
Überblick Power BI Toolsinovex GmbH
 
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Trivadis
 
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...Harald Erb
 

Semelhante a DWH-Modellierung mit Data Vault (20)

Big Data Konnektivität
Big Data KonnektivitätBig Data Konnektivität
Big Data Konnektivität
 
Mobile meets NoSQL
Mobile meets NoSQLMobile meets NoSQL
Mobile meets NoSQL
 
Cloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von MetadatenCloud Computing für die Verarbeitung von Metadaten
Cloud Computing für die Verarbeitung von Metadaten
 
SAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdfSAP_Basis_Klassisch.pdf
SAP_Basis_Klassisch.pdf
 
04 Datenintegration und Verwaltung
04 Datenintegration und Verwaltung04 Datenintegration und Verwaltung
04 Datenintegration und Verwaltung
 
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTiggesDas modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
Das modulare DWH-Modell - DOAG SIG BI/DWH 2010 - OPITZ CONSULTING - ArnoTigges
 
OPAL - Open Data Portal Germany
OPAL - Open Data Portal GermanyOPAL - Open Data Portal Germany
OPAL - Open Data Portal Germany
 
Data Mining und OLAP
Data Mining und OLAPData Mining und OLAP
Data Mining und OLAP
 
Big Data Appliances
Big Data AppliancesBig Data Appliances
Big Data Appliances
 
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)
Oracle Data Warehouse Integration Builder - Ein Selbstversuch (DOAG 2013)
 
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02
Doag 2104 manuskript_hadoop_oracle_integration_gunther_pipperr_v02
 
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
Tipps & Tricks zum Aufbau einer Unternehmenscloud mit CC13
 
Einführung in nosql // ArangoDB mit Symfony 2
Einführung in nosql // ArangoDB mit Symfony 2Einführung in nosql // ArangoDB mit Symfony 2
Einführung in nosql // ArangoDB mit Symfony 2
 
SAP Datashpere - von Bits und Bites zu Widgets und Charts
SAP Datashpere - von Bits und Bites zu Widgets und ChartsSAP Datashpere - von Bits und Bites zu Widgets und Charts
SAP Datashpere - von Bits und Bites zu Widgets und Charts
 
Automatisierung im DWH - Sich das Leben erleichern mit dem ODI
Automatisierung im DWH - Sich das Leben erleichern mit dem ODIAutomatisierung im DWH - Sich das Leben erleichern mit dem ODI
Automatisierung im DWH - Sich das Leben erleichern mit dem ODI
 
APEX für den Oracle DBA
APEX für den Oracle DBAAPEX für den Oracle DBA
APEX für den Oracle DBA
 
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?
Oracle12c threaded execution - Ressourcen sparen zum Nulltarif?!?
 
Überblick Power BI Tools
Überblick Power BI ToolsÜberblick Power BI Tools
Überblick Power BI Tools
 
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
Das ende von owb was nun migrationspfade fuer owb_projekte-dani schnider-stan...
 
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...
Endeca Web Acquisition Toolkit - Integration verteilter Web-Anwendungen und a...
 

Mais de Trivadis

Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...
Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...
Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...Trivadis
 
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...Trivadis
 
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)Trivadis
 
Azure Days 2019: Master the Move to Azure (Konrad Brunner)
Azure Days 2019: Master the Move to Azure (Konrad Brunner)Azure Days 2019: Master the Move to Azure (Konrad Brunner)
Azure Days 2019: Master the Move to Azure (Konrad Brunner)Trivadis
 
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...Trivadis
 
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)Trivadis
 
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...Trivadis
 
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...Trivadis
 
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...Trivadis
 
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...Trivadis
 
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...Trivadis
 
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...Trivadis
 
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - Trivadis
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - TrivadisTechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - Trivadis
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - TrivadisTrivadis
 
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...Trivadis
 
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...Trivadis
 
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...Trivadis
 
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...Trivadis
 
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...Trivadis
 
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...Trivadis
 
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - TrivadisTechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - TrivadisTrivadis
 

Mais de Trivadis (20)

Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...
Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...
Azure Days 2019: Azure Chatbot Development for Airline Irregularities (Remco ...
 
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...
Azure Days 2019: Trivadis Azure Foundation – Das Fundament für den ... (Nisan...
 
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)
Azure Days 2019: Business Intelligence auf Azure (Marco Amhof & Yves Mauron)
 
Azure Days 2019: Master the Move to Azure (Konrad Brunner)
Azure Days 2019: Master the Move to Azure (Konrad Brunner)Azure Days 2019: Master the Move to Azure (Konrad Brunner)
Azure Days 2019: Master the Move to Azure (Konrad Brunner)
 
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...
Azure Days 2019: Keynote Azure Switzerland – Status Quo und Ausblick (Primo A...
 
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)
Azure Days 2019: Grösser und Komplexer ist nicht immer besser (Meinrad Weiss)
 
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...
Azure Days 2019: Get Connected with Azure API Management (Gerry Keune & Stefa...
 
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...
Azure Days 2019: Infrastructure as Code auf Azure (Jonas Wanninger & Daniel H...
 
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...
Azure Days 2019: Wie bringt man eine Data Analytics Plattform in die Cloud? (...
 
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...
Azure Days 2019: Azure@Helsana: Die Erweiterung von Dynamics CRM mit Azure Po...
 
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...
TechEvent 2019: Kundenstory - Kein Angebot, kein Auftrag – Wie Du ein individ...
 
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...
TechEvent 2019: Oracle Database Appliance M/L - Erfahrungen und Erfolgsmethod...
 
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - Trivadis
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - TrivadisTechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - Trivadis
TechEvent 2019: Security 101 für Web Entwickler; Roland Krüger - Trivadis
 
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...
TechEvent 2019: Trivadis & Swisscom Partner Angebote; Konrad Häfeli, Markus O...
 
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...
TechEvent 2019: DBaaS from Swisscom Cloud powered by Trivadis; Konrad Häfeli ...
 
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...
TechEvent 2019: Status of the partnership Trivadis and EDB - Comparing Postgr...
 
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...
TechEvent 2019: More Agile, More AI, More Cloud! Less Work?!; Oliver Dörr - T...
 
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...
TechEvent 2019: Kundenstory - Vom Hauptmann zu Köpenick zum Polizisten 2020 -...
 
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...
TechEvent 2019: Vom Rechenzentrum in die Oracle Cloud - Übertragungsmethoden;...
 
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - TrivadisTechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
TechEvent 2019: The sleeping Power of Data; Eberhard Lösch - Trivadis
 

DWH-Modellierung mit Data Vault

  • 1. DWH-Modellierung mit Data Vault in Kombination mit ODI 12c - Erfahrungen aus der Praxis Claus Jordan Senior Consultant BASEL BERN BRUGG LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 2014 © Trivadis Ansicht > Kopf und Fusszeile DOAG-Konferenz 2014 1
  • 2. Zu meiner Person CLAUS JORDAN SENIOR CONSULTANT BUSINESS INTELLIGENCE bei Trivadis seit 2003 Themengebiete 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI DOAG-Konferenz 2014 2 Data Warehouse, Architektur und ETL Analyse und Reporting Technologien Oracle RDMBS Oracle OLAP Oracle BI Enterprise Edition
  • 3. Unser Unternehmen Trivadis ist führend bei der IT-Beratung, der Systemintegration, dem Solution-Engineering und der Erbringung von IT-Services mit Fokussierung auf und Technologien im D-A-CH-Raum. Unsere Leistungen erbringen wir aus den strategischen Geschäftsfeldern: Trivadis Services übernimmt den korrespondierenden Betrieb Ihrer IT Systeme. 2014 © Trivadis Trivadis – das Unternehmen DOAG-Konferenz 2014 B E T R I E B 3
  • 4. Mit über 600 IT- und Fachexperten bei Ihnen vor Ort 2014 © Trivadis 4 12 Trivadis Niederlassungen mit über 600 Mitarbeitenden 200 Service Level Agreements Mehr als 4'000 Trainingsteilnehmer Forschungs- und Entwicklungs-budget: CHF 5.0 Mio. / EUR 4.0 Mio. Finanziell unabhängig und nachhaltig profitabel Erfahrung aus mehr als 1'900 Projekten pro Jahr bei über 800 Kunden Stand 12/2013 Hamburg Düsseldorf Frankfurt Freiburg München Wien Basel Bern Zürich Lausanne 4 Stuttgart Trivadis – das Unternehmen DOAG-Konferenz 2014 4 Brugg
  • 5. AGENDA Von den Anforderungen zum Data Vault Datenmodell Anforderungen Datenmodell Historisierung in Data Vault Bewertung von Data Vault ETL-Logik und -Prozesse mit ODI 12c Topology Models und Mappings ODI Knowledge-Module (Code Templates) 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 6. Von den Anforderungen 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 zum Data Vault Datenmodell Systemlandschaft Anforderungen
  • 7. Systemlandschaft „Heute“ 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Flatfile (*.csv ) oder ODBC-Verbindung Unterschiedliche Schnittstellen OLTP (Operative Non HR-Systeme) OLTP (Operative HR-Systeme) OLAP (HR-Planungs- / Reportingssysteme) OLTP (Operative HR-Drittsysteme) Extrakte für Werkreporting
  • 8. Systemlandschaft „Morgen“ OLTP (Operative Non HR-Systeme) OLTP (Operative HR-Systeme) OLAP (HR-Planungs- / 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Reportingssysteme) OLTP (Operative HR-Drittsysteme) HR Data Warehouse Datenbank: Oracle 11g oder 12c Tools: Oracle Data Integrator 12c Oracle SQL Developer Oracle SQL Data Modeler
  • 9. Konzept und Datenmodell HR Data Warehouse – Konzept (Teil 1) Aufbau und Technologie Vorgehensweise HR Data Warehouse – Datenmodell (Teil 2) ER Diagramm Physische Datenmodelle 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 HR Data Warehouse Stage Cleanse Core Mart
  • 10. Data Vault Modelling von Dan Linstedt (1990-2000) Die zentrale Komponente des Data Warehouses – in unserer Architektur das Core – wird bei diesem Modellierungsansatz als Data Vault bezeichnet. Ein Data Vault besteht aus drei verschiedenen Strukturen, die als Tabellen implementiert werden: Hubs enthalten ausschliesslich die Business Keys der fachlichen Entitäten sowie einen künstlichen Schlüssel, der von Links und Satellites referenziert wird. Beschreibende Attribute werden nie in Hubs abgespeichert, sondern in Satellites ausgelagert. Links beschreiben Beziehungen zwischen Entitätstypen (Hubs) und erlauben generell die Definition von n-zu-n- Beziehungen zwischen verschiedenen Hubs. Auf eine fachliche Abbildung der Kardinalitäten (1:1, 1:n, n:n) wie in der klassischen relationalen Datenmodellierung wird hier verzichtet. Satellites umfassen sämtliche beschreibenden Attribute von Entitätstypen oder Beziehungen in versionierter Form. Ein Satellite wird via Fremdschlüsselbeziehung einem Hub oder einem Link zugeordnet. Pro Hub/Link können mehrere Satellites definiert werden. 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 11. Umfang und Ziel des Prototyps 2014 © Trivadis Umfang Für eine begrenzte Anzahl von Entitäten und Beziehungen soll mit Hilfe des ETL Werkzeugs ODI ein Prototyp für das HR Data Warehouse erstellt werden. Für für die zentrale Schicht (Core) soll die Modellierungsmethode Data Vault zum Einsatz kommen. Ziel Es soll am praktischen Beispiel gezeigt werden, dass ODI das richtige Werkzeug und dass Data Vault für die aktuellen und zukünftigen Anforderung geeignet ist. DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 12. Von den Anforderungen 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 zum Data Vault Datenmodell Datenmodell
  • 13. Ausgangspunkt ist das logisches Datenmodell .. .. zum Beispiel für die Objekte Mitarbeiter + Adresse(n) 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 14. HR DWH - Physisches Datenmodell 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Stage Cleanse Core Data Mart ? ? ? ?
  • 15. 1. Core (Data Vault Methode) 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Stage Cleanse Core Data Mart ? ? ? ?
  • 16. 2. Cleanse 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Stage Cleanse Core Data Mart ? ? ? ?
  • 17. 2014 © Trivadis 3. Stage DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Cleanse Core Data Mart ? ? ? Stage ?
  • 18. 4. Data Mart 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Cleanse Core Data Mart ? ? ? Stage
  • 19. HR DWH - Physisches Datenmodell 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 MA.csv LOC.csv HR Data Warehouse Stage Cleanse Core Data Mart
  • 20. Bewertung von Data Vault 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 21. Bewertungskriterien für das Datenmodell Anzahl Tabellen / Anzahl ETL-Prozesse ETL - Komplexität für das Laden aus Cleanse in Core Laden aus Core in Data Marts Erweiterbarkeit („Agile BI“) Datenredundanz / Datenvolumen Parallelisierbarkeit Abfragen von historisch korrekten Zeitreihen (Nachvollziehbarkeit) 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 22. Bewertung von Data Vault (1) Methode Kritieren mit Data Vault Anzahl Tabellen und ETL-Prozesse Relativ Hoch .. weil pro Entität zwei oder mehr Tabellen, plus eine oder mehrere Tabelle für jede Beziehung zwischen Entitäten, notwendig sind. Dies ermöglicht jedoch, gerade bei „breiten Entitäten“ (z.B. Mitarbeiter), eine gezielte Gruppierung von Attributen und erleichtert somit die Übersicht. Pro Tabelle resultiert ein ETL-Prozess. 2014 © Trivadis ETL-Komplexität für das Laden aus Cleanse in Core Gering ☺ .. zumal keine performanceintensiven Updates notwendig sind. D.h. Datensätze werden nur dann eingefügt, wenn tatsächlich Änderungen an den betreffenden Attributen vorkommen. ETL-Komplexität für das Laden aus Core in Data Marts Mittel bis hoch .. aufgrund der Transformation vom normalisierten in das denormalisierte Datenmodell (Star- / Snowflake), und vor allen Dingen wegen der Bildung von neuen Gültigkeitsintervallen bei der Verknüpfung von unabhängig versionierten Stammdatenentitäten. Diese Logik kann beispielsweise in Datenbank-Views implementiert werden. Dadurch ist der Zugriff ähnlich einfach wie im dimensionalen Datenmodell und stellt somit kein KO-Kriterium dar. DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 23. Bewertung von Data Vault (2) Methode Kritieren mit Data Vault 2014 © Trivadis Erweiterbarkeit („Agile BI“) Hoch ☺ .. aufgrund fehlender Referenzen zwischen Entitäten, die jeweils unanabhängig voneinander erweitert oder angepaßt werden können. Datenredundanz / Datenvolumen Gering ☺ .. durch Normalisierung (geringe Datenredundanz) und Splittung der Attribute, welche zu einer einer Hub-Table gehören, in mehrere Satellitentabellen Parallelisierbarkeit Hoch ☺ .. sowohl bei der Implementierung als auch im laufenden Betrieb beim Laden der Daten. Sämtliche Hub-Tables können parallel implementiert / geladen werden. Dasselbe gilt für alle Link-Tables und für die Satellite-Tables (jeweils Voraussetzung sind die Hub-Tables) Historisierung / Nachvollziehbarkeit Sehr hoch ☺ .. weil standardmäßig in den Satellite-Tables der DWH-Schicht Core jede Änderung historisiert wird und sei sie noch so gering. DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 24. 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 ETL-Logik und ETL-Prozesse mit ODI 12c
  • 25. 2014 © Trivadis Themen Wie funktioniert all dies im Prototyp? ODI Mappings ETL-Logik für Core-Mappings (Data Vault) ODI Knowledge-Module (Code-Templates) DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 26. ODI - Designer 2014 © Trivadis „Models“: Reengineering von Dateien und Datenbankobjekten basierend auf der logischen Architektur (Tab „Topology“) „Projects“: ODI Mappings (ETL-Strecken) Knowledge-Module (generische Ladestrategien) DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 27. Beispiel für ein ODI Mapping 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 28. Mappings für verschiedene Aufgaben Stage-Mappings: Laden aus verschiedenen Datenquelle in die Stage- Tables. Attribute der Stage-Tables vom Typ VARCHAR2(4000), Truncate-Insert Cleanse-Mappings: Filterung (where), Verknüpfung (Join), Mengenoperationen (Union, Minus, ..), Transformation (concat, nvl, to_date, ...), Truncate-Insert Core-Mappings: Vergleichen und ggf. Historisieren (Merge, Insert). Updates und Deletes sollten möglichst vermieden werden! Mart-Mappings: Joins, Aggregation, Kalkulation, Stichtagstabellen (pro Data Mart sehr individuell) 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 29. Core-Mappings für Data Vault (3 Typen) 2014 © Trivadis Mappings für Hub-Tables: Welche Datensätze sind neu? Diese Datensätze einfügen (Insert) Link-Tables: Lookup zu den Hub-Tables Welche Datensätze sind neu? Diese Datensätze einfügen (Insert) Satellite-Tables: Lookup zur Hub-Table bzw. zu den Link-Tables Welche Datensätze sind neu oder haben sich geändert (Dabei werden nur die Attribute der zu ladenden Satellite-Tabelle berücksichtigt)? Diese Datensätze einfügen (Insert) DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 30. ETL Logik für Hub-Tables Cleanse-Table MA PERS_ID NAME 1006 Maier 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 Cleanse-Table MA PERS_ID NAME 1006 Mayer Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 t1 t • Änderungen von beschreibenden Attributen haben keine Auswirkung auf Hub-Tables t2
  • 31. ETL Logik für Hub-Tables Cleanse-Table MA PERS_ID NAME 1006 Maier 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 Cleanse-Table MA PERS_ID NAME 1006 Mayer Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 t1 t2 t INSERT INTO SELECT FROM WHERE MA_H (PERS_ID, LOAD_DATE) cls.PERS_ID, SYSDATE MA cls NOT EXISTS (SELECT * FROM MA_H hub WHERE hub.PERS_ID = cls.PERS_ID
  • 32. ODI-Mapping für Hub-Tables 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 33. Knowledge Module für Hub-Tables 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 34. ETL Logik für Link-Tables Cleanse-Table MA_RE PERS_ID REGION 1006 N 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 19.09.2014 Hub-Table RE_H SK REGION LOAD_DATE 10 N 01.01.2000 20 S 01.01.2000 Cleanse-Table MA_RE PERS_ID REGION 1006 S Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 19.09.2014 301 1 20 21.09.2014 ? t1 t Ist das richtig so? • Ja. Wenn aber diese alte Beziehung als „Ungültig“ oder „Nicht Aktuell“ gesetzt werden soll, so wird für diese Link-Table eine Satellite-Table benötigt t2
  • 35. ETL Logik für Link-Tables INSERT INTO MA_RE_L (SK_MA, SK_RE, LOAD_DATE) SELECT MA_H.SK SK_MA, RE_H.SK SK_RE, SYSDATE FROM MA_RE cls JOIN MA_H ON (cls.PERS_ID = MA_H.PERS_ID) JOIN RE_H ON (cls.REGION = RE_H.REGION) Cleanse-Table MA_RE PERS_ID REGION 1006 N 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Hub-Table MA_H SK PERS_ID LOAD_DATE 1 1006 19.09.2014 Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 19.09.2014 Hub-Table RE_H SK REGION LOAD_DATE 10 N 01.01.2000 20 S 01.01.2000 Cleanse-Table MA_RE PERS_ID REGION 1006 S Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 19.09.2014 301 1 20 21.09.2014 ? t1 t2 t WHERE NOT EXISTS (SELECT * FROM MA_RE_L link WHERE link.SK_MA = MA_H.SK AND link.SK_RE = RE_H.SK)
  • 36. ETL Logik für Sat-Tables (4HUB) Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier N Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Mayer S 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 t1 t Hub-Table MA SK PERS_ID LOAD_DATE 1 1006 19.09.2014 • Ein Insert in die Sat-Table erfolgt nur, wenn sich ein Attribut ändert! t3 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014 1 Mayer 21.09.2014 Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier S t2 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014
  • 37. ETL Logik für Sat-Tables (4HUB) Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier N Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Mayer S 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 t1 t3 t Hub-Table MA SK PERS_ID LOAD_DATE 1 1006 19.09.2014 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014 1 Mayer 21.09.2014 Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier S t2 Sat-Table MA_S SK_HUB NAME LOAD_DATE 1 Maier 19.09.2014 INSERT INTO SELECT FROM MA_S (SK_HUB, NAME, LOAD_DATE) sat.SK_HUB cls.NAME, SYSDATE MA_H hub JOIN MA_REG cls ON (hub.PERS_ID = cls.PERS_ID) JOIN MA_S sat ON (hub.SK = sat.SK_HUB) WHERE sat.LOAD_DATE = (SELECT MAX(LOAD_DATE) FROM MA_S WHERE SK_HUB = sat.SK_HUB) AND (cls.NAME != sat.NAME OR cls.BIRTHDAY != sat.BIRTHDAY OR ...)
  • 38. ETL Logik für Sat-Tables (4LINK) Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier N Cleanse-Table MA_RE PERS_ID NAME REGION 1006 Maier S 2014 © Trivadis Sat-Table MA_RE_S SK_LNK OUT_OF_DATE LOAD_DATE 300 21.09.2014 20.09.2014 301 21.09.2014 DWH-Modellierung mit Data Vault und ODI 21.11.2014 Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 20.09.2014 301 1 20 21.09.2014 t1 t • Wenn die Beziehung zu Region „N“ ab t2 nicht mehr gültig ist, so wird in einem speziellen Attribut das entsprechende Datum eingetragen. • Hier ist also ein Update unumgänglich t2 Link-Table MA_RE_L SK SK_MA SK_RE LOAD_DATE 300 1 10 20.09.2014 Sat-Table MA_RE_S SK_LNK OUT_OF_DATE LOAD_DATE 300 20.09.2014
  • 39. 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Knowledge-Module (Code Templates) Funktionsweise
  • 40. Typen von Knowledge-Modulen (KM‘s) Es gibt unterschiedliche KM-Typen für Reverse-Engineering (RKM‘s) Loading (LKM‘s) Check (CKM‘s) Integration (IKM‘s) .. KM‘s für verschiedenste Technologien werden mitgeliefert Kopieren und anpassen KM‘s können auch von Grund auf neu entwickelt werden Einem Mapping werden ein oder mehrere KM‘s zugeordnet z.B. LKM, IKM und CKM 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 41. 2014 © Trivadis KM (1) DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 42. 2014 © Trivadis KM (2) Ein KM besteht aus Tasks (Einzelschritte), die nacheinander abgearbeitet werden, z.B. 1. Truncate Target Table 2. Deltadetection 3. Insert Target Table 4. Update Target Table 5. Commit DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 43. 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014 Zusammenfassung
  • 44. Zusammenfassung Durch die mehrschichtige Architektur des HR Data Warehouse sind Datenströme und Transformationen sehr gut nachvollziehbar. Außerdem sind die Mappings dadurch wenig komplex. Das Data Vault Datenmodell ist ideal .. .. wenn eine lückenlose Historisierung der Daten erwünscht ist .. wenn wenig Datenredundanz und damit hohe Datenkonsistenz notwendig ist .. wenn der Aufwand für das Hinzufügen neuer Entitäten, Attribute und Beziehungen möglichst klein sein soll .. wenn rückwirkende Änderung von Stamm- und Bewegungsdaten jederzeit möglich sein sollen .. Wenn parallel entwickelt werden soll Mit den Knowledge Modulen von ODI können alle möglichen Ladestrategien und Sonderfälle effizient abgebildet werden 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 45. Weitere Informationen ODI 12c Trainings 2. HJ 2014 http://www.trivadis.com/training/oracle-training/ business-intelligence/ oracle-data-integrator-workshop-fuer-praktiker-o-odi.html Trivadis Whitepaper „Comparison of Data Modeling Methods for a Core Data Warehouse” 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 46. Fragen und Antworten... Claus Jordan Senior Consultant Stuttgart Tel. +49-162-295 96 43 claus.jordan@trivadis.com BASEL BERN BRUGG LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI 21.11.2014
  • 47. Trivadis an der DOAG Ebene 3 - gleich neben der Rolltreppe Wir freuen uns auf Ihren Besuch. Denn mit Trivadis gewinnen Sie immer. 2014 © Trivadis DWH-Modellierung mit Data Vault und ODI DOAG-Konferenz 2014