Mittwoch, 15. Februar 2023

Welche IT-Architektur ermöglicht ein effizientes Datenmanagement?

Data Warehouse, Data Lake, Data Mesh, Data Fabric – es gibt viele Optionen für Anwender. Finanzinstitute sollten auf bestimmte Aspekte achten

Tom Hartung, Sales Executive, InterSystems

Unabhängig davon, ob es um Compliance, Gesamtbanksteuerung, Customer Experience, die Anbindung innovativer Cloud-Applikationen oder um eine Datenbasis für die strategische Entscheidungsfindung geht: Wie zuverlässig ein Datenmanagement für Finanzinstitute und Versicherungen funktioniert, hängt von der jeweiligen Architektur ab. Hier gibt es unterschiedliche Ansätze – von Data Warehouse, Data Lake und Data Mesh bis hin zum Data Fabric. Doch was kommt für wen in Frage? Gibt es die optimale Lösung? Oder handelt es sich eher um ein Zusammenspiel von verschiedenen Architekturen?

Um die jeweils passende Architektur auswählen zu können, sollte das Finanzinstitut den aktuellen Status Quo definieren und klären, was mit der Datenmanagement-Lösung konkret erreicht werden soll. Wichtig ist auch zu entscheiden, ob die bestehenden Systeme beibehalten werden sollen, oder ob eine völlig neue IT-Umgebung geplant ist. Letzteres ist allerdings wesentlich kostspieliger und birgt Risiken. 


Data Lake

Ein Data Lake ist eine Speicherumgebung, in der Petabytes an strukturierten, halbstrukturierten und unstrukturierten Daten für Geschäftsanalysen, maschinelles Lernen (ML) und andere umfassende Anwendungen gespeichert sind. Noch vor einigen Jahren waren Data Lakes in aller Munde. Oft entpuppten sie sich jedoch im Nachhinein als „Data Swamps" (Datensümpfe): Da die Daten ohne Strategie in die Architektur eingepflegt worden waren, war es schwer, sie in Informationen umzuwandeln, die sich etwa zur Kundenakquise oder für Marktanalysen nutzen ließen.


Data Warehouse

Bei einem Data Warehouse (DWH) handelt es sich um eine optimierte, zentrale Datenbank, die für alle Arten von Analysen zum Einsatz kommt. Dabei führt das DWH Daten aus mehreren, in der Regel heterogenen Quellen zusammen. Auf der einen Seite kann ein Data Warehouse sehr leistungsfähig sein, auf der anderen Seite nimmt die Performance jedoch mit zunehmendem Datenvolumen ab. Zudem funktioniert es mitunter nicht mit allen Quellen und Datentypen. So lassen sich beispielsweise nicht in jedem Fall unstrukturierte Daten damit verarbeiten. Weitere Nachteile sind eine oft geringe Flexibilität und Agilität. Ältere On-Premise-Umgebungen sind unter Umständen nicht integrierbar, und es besteht die Gefahr eines Vendor-Lock-in. 

 

Data Mesh

Data Mesh ist eine dezentralisierte Datenarchitektur, bei der die Daten nach Unternehmensbereichen organisiert werden – etwa Marketing, Vertrieb, Kundenservice, Asset Management etc. Da die Verantwortlichen in den jeweiligen Abteilungen die Domänendaten kennen, können sie Richtlinien für die Datenverwaltung festlegen, die sich auf die Dokumentation, die Qualität und den Zugriff beziehen. Allerdings beansprucht dieser Architekturansatz viele Ressourcen. Zudem begünstigt die Zuordnung der Daten zu Domänen die Silobildung. 


Enterprise Data Fabric

Das Enterprise Data Fabric ist ein neuer architektonischer Ansatz, der den Zugriff auf Datenbestände im gesamten Unternehmen beschleunigt und vereinfacht. Unternehmensweit verstreute Daten lassen sich vernetzen und in Echtzeit analysieren. Dabei kann das Unternehmen seine bestehenden Applikationen und Daten weiternutzen. Die Daten werden im laufenden Betrieb on demand abgerufen, integriert, harmonisiert und ausgewertet, um verschiedene Geschäftsinitiativen zu unterstützen. So lassen sich in kürzester Zeit wertvolle Erkenntnisse gewinnen, ohne die Datenspeicher von Grund auf neu aufbauen zu müssen. Dank hoher Skalierbarkeit gelingt dies auch bei großen Datenmengen. Eine Datenschicht zwischen der Geschäftsapplikation und dem Datenbestand hilft, Prozesse wie Datenintegration, Data Engineering und Governance zu automatisieren. Damit ist das Data Fabric ressourcenschonender als der Data-Mesh-Ansatz.

 

FAZIT/PRAXISTIPPS

Der Data Lake ist derzeit die gängige Umgebung für Datenbestände und allen anderen Architekturen untergeordnet. Wie das Data Warehouse dient er vielerorts als Zulieferer für die neueren Ansätze Data Fabric und Data Mesh. Zum Beispiel können Finanzinstitute, die bereits einen Data Lake aufgebaut und mit Daten befüllt haben, zwischen der Geschäftsseite und dem Data Lake ein Data Fabric implementieren. Dadurch lassen sich Daten und zugehörige Metadaten leichter in geschäftlich nutzbare Informationen umwandeln. 

Ein Data Fabric ist besonders vielseitig und flexibel. Es kann verschiedene Quellen integrieren und anwendungsspezifisch nutzen. Finanzinstitute profitieren von einer robusten Datenbasis, die sie für Künstliche Intelligenz und ML verwenden können. Ad-hoc-Anfragen von Aufsichtsbehörden lassen sich beispielsweise schneller beantworten, um Compliance-Verstößen vorzubeugen. Zeitnah bereitgestellte Risiko- und Analysedaten ermöglichen Reaktionen auf Marktentwicklungen in Echtzeit. Auch die Entscheidungsfindung in den Fachabteilungen wird erleichtert, da für die Risikobewertung aktuelle Informationen zur Verfügung stehen. Darüber hinaus ermöglicht ein Data Fabric einen nahtlosen Datenzugriff über eine nutzerbezogene Rechteverwaltung. Limitationen beim Zugriff auf Daten gehören damit der Vergangenheit an. 

Mit einem Data Fabric können Unternehmen die Kosten und die Komplexität der Datenverarbeitung senken und Erkenntnisse gewinnen, die ihnen Wettbewerbsvorteile verschaffen. Da sich bestehende Technologien weiter nutzen lassen, sind die Investitionen geschützt. Und dank der Flexibilität, Skalierbarkeit und Interoperabilität eines Data Fabrics bleibt das Unternehmen zukunftsfähig. 


Beitragsnummer: 22032

Beitrag teilen:

Produkte zum Thema:

Produkticon
Internes Meldewesen im Fokus der Revision: Prüfung IKS & Datenqualität

790,00 € exkl. 19 %

12.10.2023

Produkticon
Managementleitfaden Sustainable Finance im Fokus der Bankenaufsicht

89,00 € inkl. 7 %

Beiträge zum Thema:

Beitragsicon
Erfolgsbeispiel: Wie ein Fintech sein Datenmanagement optimiert hat

Ein Erfolgsbeispiel für optimierte Datenqualität, einen schnelleren Zugriff auf Echtzeitdaten, komplexe Analysen sowie reduzierte Kosten

14.04.2023

Beitragsicon
BGH äußert sich zum Anspruch auf „Kopie“ nach Art. 15 Abs. 3 DSGVO

Sofern ein Dokument nicht von der betroffenen Person selbst stammt, besteht nach BGH-Auffassung grundsätzlich keine Verpflichtung zur Herausgabe dessen Kopie.

17.04.2024

Beitragsicon
BCBS, SREP und die Optimierungspotenziale im Risikomanagement

Effiziente Wege zur Sicherstellung hoher Datenqualität machen die Erfüllung aufsichtsrechtlicher Anforderungen im Risikomanagement einfacher.

02.02.2024

Beitragsicon
Datenqualität(sprüfungen) im AWV-/AWG-Meldewesen

Datenqualität(-sprüfungen) im AWV-/AWG-Meldewesen und die verzahnte Betrachtung von Datenqualitäts- und Meldeprozessen

28.02.2024

Um die Webseite so optimal und nutzerfreundlich wie möglich zu gestalten, werten wir mit Ihrer Einwilligung durch Klick auf „Annehmen“ Ihre Besucherdaten mit Google Analytics aus und speichern hierfür erforderliche Cookies auf Ihrem Gerät ab. Hierbei kommt es auch zu Datenübermittlungen an Google in den USA. Weitere Infos finden Sie in unseren Datenschutzhinweisen im Abschnitt zu den Datenauswertungen mit Google Analytics.