Wie erkenne ich datenverteilung und passe das modell an produktionsdaten?
#1
Ich stehe gerade vor einer seltsamen Situation in meinem aktuellen Projekt. Ich habe ein Modell trainiert, das auf unseren historischen Daten hervorragende Ergebnisse liefert, aber sobald es mit den Live-Daten aus der Produktion konfrontiert wird, bricht die Performance völlig ein. Die Feature-Verteilung scheint sich minimal, aber entscheidend zu verschieben. Ich frage mich, ob jemand schon mal etwas Ähnliches erlebt hat und wie man diese Lücke zwischen Testumgebung und Realität am besten untersucht, ohne gleich wieder von vorne anzufangen.
Zitieren
#2
Das klingt nervig und ich fühle mit dir, die Verteilung verschiebt sich leise und plötzlich läuft das Modell in der Produktion ganz anders als im Training.
Zitieren
#3
Eine systematische Prüfung beginnt mit dem Vergleich der Feature-Verteilung zwischen Trainingsdaten und Live-Daten und einer zeitlichen Driftanalyse um Musterwechsel zu erkennen.
Zitieren
#4
Vielleicht interpretiert ihr Modell die Live Daten einfach anders, weil neue Spitzenwerte auftreten und die Korrelationen sich wandeln, das heißt die Prämisse greift nicht mehr.
Zitieren
#5
Ich bleibe skeptisch ob es wirklich Drift ist oder nur ein falscher Eindruck aus der Testumgebung, vielleicht sind die Produktionsdaten einfach lauter oder die Metriken täuschen.
Zitieren
#6
Statt zu verlangen dass der alte Ansatz perfekt funktioniert, könnte man das Thema neu rahmen und nach robusten Modellen fragen die weniger empfindlich auf kleine Verteilungsverschiebungen reagieren.
Zitieren
#7
Vielleicht ist die Frage falsch gestellt und es geht eher darum wie man Verlässlichkeit unter wechselnden Bedingungen überhaupt definiert ohne gleich neu zu trainieren?
Zitieren


[-]
Schnellantwort
Nachricht
Geben Sie hier Ihre Antwort zum Beitrag ein.

Bestätigung
Bitte den Code im Bild in das Feld eingeben. Dies ist nötig, um automatisierte Spambots zu stoppen.
Bestätigung
(Keine Beachtung von Groß- und Kleinschreibung)

Gehe zu: