Ich sitze gerade an einem Projekt, bei dem ich eine Menge Daten aus verschiedenen APIs zusammenführen muss, und irgendwie fühlt sich mein Code immer schwerfällig und schwer zu warten an. Ich habe angefangen, über eine Architektur nachzudenken, die auf Events basiert, um die Abhängigkeiten zu entkoppeln. Aber ich bin unsicher, ob ich damit nicht nur unnötige Komplexität einführe, besonders weil alles noch im selben Prozess läuft. Manchmal frage ich mich, ob ich einfach zu viel nachdenke und ein einfacherer Ansatz besser wäre.
Ich frage mich ob diese Ereignisgesteuerte Architektur nicht doch mehr Schatten als Ordnung bringt. Ist das wirklich notwendig oder nur ein modisches Spielchen?
Im Kern geht es um Abhängigkeiten zu entkoppeln und so die Wartbarkeit zu erhöhen. Wenn alles im selben Prozess läuft kann die Komplexität durch zu viele Synchronprozesse wachsen statt durch klare Schnittstellen.
Der Gedanke an eine eigenständige Architektur klingt spannend und gleichzeitig beängstigend. Es gibt das Bedürfnis nach Kontrolle und doch spürt man die Versuchung Dinge loszulassen und dem Zufall zu überlassen.
Vielleicht geht es gar nicht um mehr Technik sondern um klare Datenverträge und messbare Schnittstellen. Wenn man das zusammenschnürt wird der Overhead reduziert statt aufgeblasen.
Eine Idee wie Idempotenz taucht auf doch sie bleibt oft vage und wird nur angedeutet. Vielleicht kommt man ohne klare Definition nicht weiter.
Vielleicht ist ein Kompromiss sinnvoll du testest einen kleinen Teilbereich mit einer ereignisgestützten Brücke und vergleichst die Ergebnisse mit dem bisherigen Weg.