Ich stecke gerade in einer komischen Situation mit unserem Reporting fest. Wir haben eine Menge historischer Transaktionsdaten in unserer Hauptdatenbank, und für die täglichen Auswertungen ziehen wir sie in ein separates Data Warehouse. Jetzt will das Management aber plötzlich Echtzeit-Kennzahlen, die auf den Live-Daten basieren. Ich frage mich, ob dieser Ansatz mit einer Operational Data Store Architektur überhaupt der richtige Weg ist, oder ob wir uns damit nur selbst Probleme schaffen. Irgendwie fühlt es sich an, als würden wir zwei komplett verschiedene Systeme vermischen, die für unterschiedliche Dinge gebaut wurden.
Das ist frustrierend dieser Konflikt zwischen Live Daten und historischen Transaktionen, es fühlt sich an als würden zwei Welten gleichzeitig arbeiten
Aus technischer Sicht könnte ein Operational Data Store helfen Latenzgrenzen zu ziehen doch dann braucht es klare Regeln wie Datenkonsistenz und Streaming Pipelines die Changes zeitnah weitergeben
Ich glaube ihr verteidigt die Idee des ODS falsch und denkt es löst alles sofort dabei geht es eher um Zwischenspeicher statt Echtzeit Benchmarking
Muss dieser ganze Aufwand wirklich in Echtzeit Realität umgesetzt werden oder steckt da vielleicht eine Marketing Forderung dahinter
Realzeit klingt cool doch in der Praxis bringt es erheblichen Implementierungsaufwand und Datenqualitätsprobleme mit sich die man nicht unterschätzen sollte
Vielleicht geht es gar nicht um zwei Systeme sondern um wie wir Datenverantwortung verteilen und wer die Controls hat ohne zu sehr in die Technik abzurutschen
Man könnte Change Data Capture nutzen um nur geänderte Datensätze rasch zu streamen und damit die Brücke zwischen Live Reporting und historischen Analysen zu schlagen